104 resultados para Contour actif
Resumo:
Objectifs: Etudier les résultats techniques et cliniques de l'embolisation des hématomes musculaires spontanés de l'abdomen . Caractériser les hématomes ayant étéembolisés au CT et définir les éventuels critères cliniques et anatomiques pour une embolisation . Etudier la relation entre les hématomes embolisés et lesanticoagulants.Matériels et méthodes: Etude rétrospective des patients ayant bénéficié d'une embolisation pour un hématome musculaire abdominopelvien spontané entre 2005 et 2010. Sont analysésles données cliniques (anticaogulants, retentissement hémodynamqiue), les données scanographiques (site, volume, saignement actif), les artères embolisées etle type d'embol, le résultat clinique immédiat, les complications et la mortalité en cours d'hospitalisation .Résultats: 28 patients (âge moyen 75 ans) ont été embolisés. Tous les patients avaient un traitement anticoagulant et/ou antiplaquettaire. La majorité des hématomesembolisés concernaient le muscle grand droit de l'abdomen. Le saignement actif n'était pas identifié chez tous les patients au CT. Pas de complication immédiaterapportée. Le succès technique était de 98%. Pas de récidive précoce rapportée y compris après réintroduction du traitement anticaogulant.Conclusion: L'embolisation hémostatique des hématomes musculaires spontanés sous anticoagulants est efficace pour contrôler le saignement et permettre la réintroductiondu traitement anticoagulant.
Resumo:
Oscillations have been increasingly recognized as a core property of neural responses that contribute to spontaneous, induced, and evoked activities within and between individual neurons and neural ensembles. They are considered as a prominent mechanism for information processing within and communication between brain areas. More recently, it has been proposed that interactions between periodic components at different frequencies, known as cross-frequency couplings, may support the integration of neuronal oscillations at different temporal and spatial scales. The present study details methods based on an adaptive frequency tracking approach that improve the quantification and statistical analysis of oscillatory components and cross-frequency couplings. This approach allows for time-varying instantaneous frequency, which is particularly important when measuring phase interactions between components. We compared this adaptive approach to traditional band-pass filters in their measurement of phase-amplitude and phase-phase cross-frequency couplings. Evaluations were performed with synthetic signals and EEG data recorded from healthy humans performing an illusory contour discrimination task. First, the synthetic signals in conjunction with Monte Carlo simulations highlighted two desirable features of the proposed algorithm vs. classical filter-bank approaches: resilience to broad-band noise and oscillatory interference. Second, the analyses with real EEG signals revealed statistically more robust effects (i.e. improved sensitivity) when using an adaptive frequency tracking framework, particularly when identifying phase-amplitude couplings. This was further confirmed after generating surrogate signals from the real EEG data. Adaptive frequency tracking appears to improve the measurements of cross-frequency couplings through precise extraction of neuronal oscillations.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
RÉSUMÉ L'exercice est utilisé dans le traitement de la lombalgie depuis plus de cent ans. La recherche dans ce domaine a commencé au milieu du XXème siècle puis s'est développée exponentiellement jusqu'à nos jours. La première étude de cette thèse a eu pour but de passer en revue cette abondante littérature scientifique. Il en est ressorti que l'exercice est un moyen efficace de prévention primaire et secondaire de la lombalgie. En tant que modalité de traitement, l'exercice permet de diminuer l'incapacité et la douleur et d'améliorer la condition physique et le statut professionnel des patients lombalgiques subaigus et chroniques. Parmi les caractéristiques de l'exercice, la supervision est essentielle. Des investigations ultérieures sont nécessaires afin d'identifier des sous-groupes de patients répondant favorablement à d'autres caractéristiques de l'exercice. L'exercice est souvent utilisé dans l'optique de maintenir les résultats obtenus à la suite d'un traitement, bien que peu d'études s'y soient penchées. La deuxième partie de cette thèse a eu pour objectifs d'évaluer l'efficacité d'un programme d'exercice (PE) suivi par des patients lombalgiques chroniques ayant complété une restauration fonctionnelle multidisciplinaire (RFM), en comparaison avec le suivi classique (SC) consistant simplement à encourager les patients à adopter un quotidien aussi actif que possible par la suite. Les résultats ont montré que les améliorations obtenues au terme de RFM étaient maintenues par les deux groupes à un an de suivi. Bien qu'aucune différence n'ait été obtenue entre les deux groupes, seul le groupe PE améliorait significativement l'incapacité et l'endurance isométrique des muscles du tronc. Une analyse économique a ensuite été réalisée afin d'évaluer la rentabilité de PE. L'évaluation de la qualité de vie des patients au terme de RFM et à un an de suivi permettait d'estimer les années de vie ajustées par leur qualité (QALYs) gagnées par chaque groupe. Les coûts directs (visites chez le médecin, spécialiste, physio, autres) et indirects (jours d'absence au travail) étaient estimés avant RFM et à un an de suivi à l'aide d'un agenda. Aucune différence significative n'était obtenue entre les groupes. Une mince différence de QALYs en faveur de PE ne se traduisait néanmoins pas en bénéfices mesurables. La recherche future devrait s'attacher à identifier un ou des sous-groupe(s) de patients pour lesquels SC ne permet pas de maintenir à long terme les améliorations obtenues au terme de RFM, et pour lesquels l'efficacité thérapeutique et la rentabilité économique de PE pourraient être accrues. ABSTRACT Exercise is used to treat low back pain for over a hundred years. Research in this area began in the mid-twentieth century and then grew exponentially until nowadays. The first study of this thesis was aimed to review this abundant scientific literature. It showed that exercise is effective in the primary and secondary prevention of low back pain. As a modality of treatment, exercise can reduce disability and pain and improve physical fitness and professional status of patients with subacute and chronic low back pain. Among different exercise characteristics, supervision is essential. Further investigations are needed to identify subgroups of patients responding positively to other characteristics of exercise. Exercise is often used as a post-treatment modality in order to maintain results over time, although only a few studies addressed this issue directly. The purpose of the second part of this thesis was to evaluate the effectiveness of an exercise program (EP) for patients with chronic low back pain who completed a functional multidisciplinary rehabilitation (FMR), compared to the routine follow-up (RF) which simply consisted of encouraging patients to adopt an active daily life thereafter. The results showed that improvements obtained at the end of FMR were maintained by both groups at one year follow-up. Although no difference was obtained between both groups, only the EP group significantly improved disability and isometric endurance of trunk muscles. An economic analysis was then carried out to assess the cost-effectiveness of EP. Based on the evaluation of patients' quality of life after FMR and at one year follow-up, an estimation of adjusted life years for their quality (QALYs) gained by each group was done. Direct costs (physician, specialist, physiotherapist, other therapists visits) and indirect costs (days off work) were measured before FMR and at one year follow-up using a cost diary. No significant difference was obtained between both groups. A slight difference in QALYs in favour of EP did yet not translate into measurable benefits. Future research should focus on identifying subgroups of patients for which RF is insufficient to reach long-term improvements after FMR, and for which the therapeutic effectiveness and cost-effectiveness of EP could be increased.
Resumo:
Kidneys are the main regulator of salt homeostasis and blood pressure. In the distal region of the tubule active Na-transport is finely tuned. This transport is regulated by various hormonal pathways including aldosterone that regulates the reabsorption at the level of the ASDN, comprising the late DCT, the CNT and the CCD. In the ASDN, the amiloride-sensitive epithelial Na-channel (ENaC) plays a major role in Na-homeostasis, as evidenced by gain-of function mutations in the genes encoding ENaC, causing Liddle's syndrome, a severe form of salt-sensitive hypertension. In this disease, regulation of ENaC is compromised due to mutations that delete or mutate a PY-motif in ENaC. Such mutations interfere with Nedd4-2- dependent ubiquitylation of ENaC, leading to reduced endocytosis of the channel, and consequently to increased channel activity at the cell surface. After endocytosis ENaC is targeted to the lysosome and rapidly degraded. Similarly to other ubiquitylated and endocytosed plasma membrane proteins (such as the EGFR), it is likely that the multi-protein complex system ESCRT is involved. To investigate the involvement of this system we tested the role of one of the ESCRT proteins, Tsg101. Here we show that Tsg101 interacts endogenously and in transfected HEK-293 cells with all three ENaC sub-units. Furthermore, mutations of cytoplasmic lysines of ENaC subunits lead to the disruption of this interaction, indicating a potential involvement of ubiquitin in Tsg101 / ENaC interaction. Tsg101 knockdown in renal epithelial cells increases the total and cell surface pool of ENaC, thus implying TsglOl and consequently the ESCRT system in ENaC degradation by the endosomal/lysosomal system. - Les reins sont les principaux organes responsables de la régulation de la pression artérielle ainsi que de la balance saline du corps. Dans la région distale du tubule, le transport actif de sodium est finement régulé. Ce transport est contrôlé par plusieurs hormones comme l'aldostérone, qui régule la réabsorption au niveau de l'ASDN, segment comprenant la fin du DCT, le CNT et le CCD. Dans l'ASDN, le canal à sodium épithélial sensible à l'amiloride (ENaC) joue un rôle majeur dans l'homéostasie sodique, comme cela fut démontré par les mutations « gain de fonction » dans les gênes encodant ENaC, causant ainsi le syndrome de Liddle, une forme sévère d'hypertension sensible au sel. Dans cette maladie, la régulation d'ENaC est compromise du fait des mutations qui supprime ou mute le domaine PY présent sur les sous-unités d'ENaC. Ces mutations préviennent l'ubiquitylation d'ENaC par Nedd4-2, conduisant ainsi à une baisse de l'endocytose du canal et par conséquent une activité accrue d'ENaC à la surface membranaire. Après endocytose, ENaC est envoyé vers le lysosome et rapidement dégradé. Comme d'autres protéines membranaires ubiquitylées et endocytées (comme l'EGFR), il est probable que le complexe multi-protéique ESCRT est impliqué dans le transport d'ENaC au lysosome. Pour étudier l'implication du système d'ESCRT dans la régulation d'ENaC nous avons testé le rôle d'une protéine de ces complexes, TsglOl. Notre étude nous a permis de démontrer que TsglOl se lie aux trois sous-unités ENaC aussi bien en co-transfection dans des cellules HEK-293 que de manière endogène. De plus, nous avons pu démontrer l'importance de l'ubiquitine dans cette interaction par la mutation de toutes les lysines placées du côté cytoplasmique des sous-unités d'ENaC, empêchant ainsi l'ubiquitylation de ces sous-unités. Enfin, le « knockdown » de TsglOl dans des cellules épithéliales de rein induit une augmentation de l'expression d'ENaC aussi bien dans le «pool» total qu'à la surface membranaire, indiquant ainsi un rôle pour TsglOl et par conséquent du système d'ESCRT dans la dégradation d'ENaC par la voie endosome / lysosome. - Le corps humain est composé d'organes chacun spécialisé dans une fonction précise. Chaque organe est composé de cellules, qui assurent la fonction de l'organe en question. Ces cellules se caractérisent par : - une membrane qui leur permet d'isoler leur compartiment interne (milieu intracellulaire ou cytoplasme) du liquide externe (milieu extracellulaire), - un noyau, où l'ADN est situé, - des protéines, sortent d'unités fonctionnelles ayant une fonction bien définie dans la cellule. La séparation entre l'extérieure et l'intérieure de la cellule est essentielle pour le maintien des composants de ces milieux ainsi que pour la bonne fonction de l'organisme et des cellules. Parmi ces composants, le sodium joue un rôle essentiel car il conditionne le maintien de volume sanguin en participant au maintien du volume extracellulaire. Une augmentation du sodium dans l'organisme provoque donc une augmentation du volume sanguin et ainsi provoque une hypertension. De ce fait, le contrôle de la quantité de sodium présente dans l'organisme est essentiel pour le bon fonctionnement de l'organisme. Le sodium est apporté par l'alimentation, et c'est au niveau du rein que va s'effectuer le contrôle de la quantité de sodium qui va être retenue dans l'organisme pour le maintien d'une concentration normale de sodium dans le milieu extracellulaire. Le rein va se charger de réabsorber toutes sortes de solutés nécessaires pour l'organisme avant d'évacuer les déchets ou le surplus de ces solutés en produisant l'urine. Le rein va se charger de réabsorber le sodium grâce à différentes protéines, parmi elle, nous nous sommes intéressés à une protéine appelée ENaC. Cette protéine joue un rôle important dans la réabsorption du sodium, et lorsqu'elle fonctionne mal, comme il a pu être observé dans certaines maladies génétiques, il en résulte des problèmes d'hypo- ou d'hypertension. Les problèmes résultant du mauvais fonctionnement de cette protéine obligent donc la cellule à réguler efficacement ENaC par différents mécanismes, notamment en diminuant son expression et en dégradant le « surplus ». Dans cette travail de thèse, nous nous sommes intéressés au mécanisme impliqué dans la dégradation d'ENaC et plus précisément à un ensemble de protéines, appelé ESCRT, qui va se charger « d'escorter » une protéine vers un sous compartiment à l'intérieur de la cellule ou elle sera dégradée.
Resumo:
Rapport de synthèse:Le but de cette étude était d'investiguer pour la première fois chez l'homme l'effet du sodium alimentaire et de l'hypertension artérielle sur l'oxygénation tissulaire par une technique spéciale d'imagerie à résonance magnétique nommée 'BOLD-IRM' (Blood Oxygen Level Dependent-IRM). Le BOLD-IRM est une technique nouvelle qui permet de mesurer la bio disponibilité tissulaire d'oxygène de façon non-invasive chez l'homme, en utilisant le déoxyhémoglobine comme produit de contraste endogène.Le rational de cette étude était double. Premièrement, des changements dans l'apport sodique alimentaire devraient théoriquement influencer l'oxygénation tissulaire rénale, étant donné que la réabsorption tubulaire du sodium est un transport actif nécessitant de l'énergie et de l'oxygène. Deuxièmement, des études chez l'animal suggèrent une rôle possible de l'hypoxie tissulaire dans le développement de la néphropathie hypertensive.Nous avons déterminé l'oxygénation rénale avec le BOLD-IRM chez dix hommes normo tendus (âgés de 26.5±7.4 ans) et huit hommes hypertendus non-traités (âgés de 28.8±5.7 ans) une semaine après un régime riche en sel (>200 mmol/jour), et de nouveau une semaine après un régime pauvre en sel (<100 mmol/jour). En parallèle, nous avons mesuré la clearance de l'inuline, du p- aminohippurate (PAH) et du lithium endogène, afin de déterminer respectivement la filtration glomérulaire, le flux sanguin rénal et le 'renal sodium handling', tous des paramètres ayant la capacité d'influencer la consommation et/ou la disponibilité d'oxygène tissulaire. Nous nous attendions d'une côté à une oxygénation rénale diminuée chez les sujets hypertendus par rapport aux sujets normo tendus, et d'une autre côté à une augmentation de l'oxygénation tissulaire rénale après une semaine de régime pauvre en sel par rapport à la phase d'un régime riche en sel.Nous retenons comme résultat principal une augmentation de l'oxygénation rénale médullaire suite à une restriction sodique par rapport à un régime riche en sel chez tous les participants (normo-et hypertendus). Chez les participants normotendus ces changements correlaient avec des changements dans le transport actif du sodium, et ceci indépendamment du flux sanguin rénal. Contrairement à ce qu'on attendait, l'oxygénation rénale médullaire était plus élevé chez les sujets hypertendus par rapport aux sujets normotendus.En résumé, ces observations offrent possiblement une explication pour les bénéfices rénaux liés à un régime pauvre en sel. En plus, la combinaison d'études de clearance et le BOLD- IRM comme utilisé dans cette étude se sont révélés un outil performant et prometteur qui peut stimuler la recherche dans ce domaine.
Resumo:
Human electrophysiological studies support a model whereby sensitivity to so-called illusory contour stimuli is first seen within the lateral occipital complex. A challenge to this model posits that the lateral occipital complex is a general site for crude region-based segmentation, based on findings of equivalent hemodynamic activations in the lateral occipital complex to illusory contour and so-called salient region stimuli, a stimulus class that lacks the classic bounding contours of illusory contours. Using high-density electrical mapping of visual evoked potentials, we show that early lateral occipital cortex activity is substantially stronger to illusory contour than to salient region stimuli, whereas later lateral occipital complex activity is stronger to salient region than to illusory contour stimuli. Our results suggest that equivalent hemodynamic activity to illusory contour and salient region stimuli probably reflects temporally integrated responses, a result of the poor temporal resolution of hemodynamic imaging. The temporal precision of visual evoked potentials is critical for establishing viable models of completion processes and visual scene analysis. We propose that crude spatial segmentation analyses, which are insensitive to illusory contours, occur first within dorsal visual regions, not the lateral occipital complex, and that initial illusory contour sensitivity is a function of the lateral occipital complex.
Resumo:
Summary Forests are key ecosystems of the earth and associated with a large range of functions. Many of these functions are beneficial to humans and are referred to as ecosystem services. Sustainable development requires that all relevant ecosystem services are quantified, managed and monitored equally. Natural resource management therefore targets the services associated with ecosystems. The main hypothesis of this thesis is that the spatial and temporal domains of relevant services do not correspond to a discrete forest ecosystem. As a consequence, the services are not quantified, managed and monitored in an equal and sustainable manner. The thesis aims were therefore to test this hypothesis, establish an improved conceptual approach and provide spatial applications for the relevant land cover and structure variables. The study was carried out in western Switzerland and based primarily on data from a countrywide landscape inventory. This inventory is part of the third Swiss national forest inventory and assesses continuous landscape variables based on a regular sampling of true colour aerial imagery. In addition, land cover variables were derived from Landsat 5 TM passive sensor data and land structure variables from active sensor data from a small footprint laserscanning system. The results confirmed the main hypothesis, as relevant services did not scale well with the forest ecosystem. Instead, a new conceptual approach for sustainable management of natural resources was described. This concept quantifies the services as a continuous function of the landscape, rather than a discrete function of the forest ecosystem. The explanatory landscape variables are therefore called continuous fields and the forest becomes a dependent and function-driven management unit. Continuous field mapping methods were established for land cover and structure variables. In conclusion, the discrete forest ecosystem is an adequate planning and management unit. However, monitoring the state of and trends in sustainability of services requires them to be quantified as a continuous function of the landscape. Sustainable natural resource management iteratively combines the ecosystem and gradient approaches. Résumé Les forêts sont des écosystèmes-clés de la terre et on leur attribue un grand nombre de fonctions. Beaucoup de ces fonctions sont bénéfiques pour l'homme et sont nommées services écosystémiques. Le développement durable exige que ces services écosystémiques soient tous quantifiés, gérés et surveillés de façon égale. La gestion des ressources naturelles a donc pour cible les services attribués aux écosystèmes. L'hypothèse principale de cette thèse est que les domaines spatiaux et temporels des services attribués à la forêt ne correspondent pas à un écosystème discret. Par conséquent, les services ne sont pas quantifiés, aménagés et surveillés d'une manière équivalente et durable. Les buts de la thèse étaient de tester cette hypothèse, d'établir une nouvelle approche conceptuelle de la gestion des ressources naturelles et de préparer des applications spatiales pour les variables paysagères et structurelles appropriées. L'étude a été menée en Suisse occidentale principalement sur la base d'un inventaire de paysage à l'échelon national. Cet inventaire fait partie du troisième inventaire forestier national suisse et mesure de façon continue des variables paysagères sur la base d'un échantillonnage régulier sur des photos aériennes couleur. En outre, des variables de couverture ? terrestre ont été dérivées des données d'un senseur passif Landsat 5 TM, ainsi que des variables structurelles, dérivées du laserscanning, un senseur actif. Les résultats confirment l'hypothèse principale, car l'échelle des services ne correspond pas à celle de l'écosystème forestier. Au lieu de cela, une nouvelle approche a été élaborée pour la gestion durable des ressources naturelles. Ce concept représente les services comme une fonction continue du paysage, plutôt qu'une fonction discrète de l'écosystème forestier. En conséquence, les variables explicatives de paysage sont dénommées continuous fields et la forêt devient une entité dépendante, définie par la fonction principale du paysage. Des méthodes correspondantes pour la couverture terrestre et la structure ont été élaborées. En conclusion, l'écosystème forestier discret est une unité adéquate pour la planification et la gestion. En revanche, la surveillance de la durabilité de l'état et de son évolution exige que les services soient quantifiés comme fonction continue du paysage. La gestion durable des ressources naturelles joint donc l'approche écosystémique avec celle du gradient de manière itérative.
Resumo:
Introduction Le neuroblastome (NB) est la tumeur maligne solide extra-crânienne la plus fréquente chez l'enfant. Sa présentation clinique est très hétérogène, allant d'une tumeur localisée à une atteinte métastatique sévère. Malgré des traitements agressifs, environ 55% des NB de hauts risques sont actuellement résistants aux thérapies. L'espoir réside dans le développement de traitements ciblant les mécanismes moléculaires responsables du développement et de la progression du NB. Le gène Anaplastic Lymphoma Kinase (ALK) codant pour un récepteur tyrosine kinase a été particulièrement étudié ces dernières années car il est muté, amplifié ou surexprimé dans une majorité des NBs. Le but de ce projet était d'investiguer le rôle de ALK-wt, ainsi que de ces deux plus fréquentes mutations, ALK- F1174L et ALK-R1245Q, dans l'oncogenèse du NB. Le NB étant originaire des cellules de la crête neurale, nous avons analysé le potentiel oncogénique de ces différentes formes de ALK dans des cellules progénitrices de la crête neurale (NCPC). Méthode Des NCPC de souris (JoMal), possédant un c-MycER inductible pour leur maintien en culture in vitro, ont été transduites par un rétrovirus permettant l'expression stable de ALK-wt, ALK-F1174L et ALK-R1245Q. Des tests in vitro ont d'abord été effectués pour tester le système c-MycER, la stabilité de nos cellules transduites, leur phénotype, leur capacité de croissance et leur tumorigénicité. Les cellules transduites ont ensuite été injectées dans des souris immunosupprimées en sous-cutané, puis en orthotopique, c'est-à-dire dans leur glande surrénale, afin de mesurer leur tumorigénicité in vivo. Résultats La transduction et l'expression stable de ALK n'ont pas modifié le phénotype indifférencié des JoMal, ni de manière significative la capacité de croissance des cellules in vitro en absence d'activation de c-MycER. Par contre, lorsque c-MycER est actif, les cellules porteuses des mutations Fl 174L et R1245Q ont montré une meilleure capacité de prolifération et de formation de colonies, par rapport aux JoMal-ALK-wt et aux cellules contrôles en culture 3D dans de la méthylcellulose et dans un test de formation de neurosphères. In vivo, les souris injectées avec les cellules JoMal-ALK- F1174L en sous-cutané ou dans la glande surrénale ont rapidement développé des tumeurs, suivies par le groupe JoMal-ALK-R1245Q et le groupe JoMal-ALK-wt, alors que les groupes de souris contrôles n'ont présenté aucune tumeur. En orthotopique, nous avons obtenu 5/6 tumeurs ALK-F1174L, 7/7 tumeurs ALK-R1245Q et 6/7 tumeurs ALK-wt. Les tumeurs sous-cutanées ne présentaient pas de différences morphologiques et histologiques entre les différents groupes et montraient une histologie compatible avec un NB. Les tumeurs orthotopiques restent encore à analyser. Conclusion Cette étude a permis de démontrer que les mutations activatrices Fl 174L et R1245Q ont des propriétés tumorigéniques in vitro dans des NCPC et in vivo tandis que la forme sauvage de ALK montre une capacité oncogénique uniquement in vivo. Bien que la caractérisation des tumeurs orthotopiques n'a pas encore été effectuée, l'analyse des tumeurs sous-cutanées nous suggère que l'expression de ALK- wt ou muté est suffisante pour induire la formation de NB à partir des cellules progénitrices de la crête neurale. Le gène ALK semble donc jouer un rôle important dans l'oncogénèse du NB, aussi bien par la présence de mutations activatrices que par sa fréquente surexpression.
Resumo:
L'objectif de cette étude est de valider une nouvelle grille de codage pour le Lab-TAB (Goldsmith et Rothbart, 1999). Cette grille mesure l'intensité émotionnelle et les comportements de régulation chez l'enfant âgé de six mois. L'accord interjuge se révèle satisfaisant. Les analyses factorielles ont mis en évidence trois facteurs - attention, niveau d'activité et détournement actif - retrouvés dans la littérature comme stratégies de régulation émotionnelle. Les analyses de consistance interne démontrent une bonne homogénéité de ces facteurs. La validité externe se révèle satisfaisante aux niveaux concourant et prédictif. Enfin, cet outil de codage permet de distinguer les prématurés et les nés à terme. L'ensemble de ces résultats indiquent que l'outil élaboré présente de bonnes qualités psychométriques.
Resumo:
In this article we present a method to achieve tri-dimensional contouring of macroscopic objects. A modified reference wave speckle interferometer is used in conjunction with a source of reduced coherence. The depth signal is given by the envelope of the interference signal, directly determined by the coherence length of the source. Fringes are detected in the interferogram obtained by a single shot and are detected by means of adequate filtering. With the approach based on off-axis configuration, a contour line can be extracted from a single acquisition, thus allowing to use the system in harsh environment. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
RésuméLes microparticules sont des vésicules phospholipidiques de moins d‟un micromètre relâchées dans le sang par différents types cellulaires, comme les cellules endothéliales, les plaquettes ou encore les globules blancs et rouges. Elles sont bioactives et impliquées dans de nombreux processus physiologiques incluant l‟hémostase. De plus, un nombre élevé de microparticules circulantes dans le sang a été observé dans différentes pathologies.Dans le domaine de la transfusion, les microparticules de globules rouges ont été détectées dans les concentrés érythrocytaires. Le but de cette recherche était de caractériser les microparticules de globules rouges et d‟évaluer si ces dernières avaient un rôle en transfusion. Pour ce faire, une approche globale utilisant différentes techniques comme la cytométrie de flux, la protéomique, la microscopie ainsi que des tests d‟hémostase de routines, a été adoptée.Le présent travail de thèse a démontré que les microparticules de globules rouges s‟accumulent dans les concentrés érythrocytaires pendant le stockage. Leur bioactivité a été démontrée de part leur rôle actif dans le processus de la coagulation. En effet, lors de test de génération de thrombine, elles peuvent non seulement supporter ce processus de coagulation, mais aussi le déclencher par un mécanisme inconnu sous certaines circonstances. Les microparticules de globules rouges présentent aussi des antigènes de groupes sanguins à leur surface, toutefois, leur implication potentielle dans l‟induction d‟une réponse immunitaire n‟est pas connue. Bien que le mécanisme de formation et d‟émissions des microparticules par les globules rouges ne soit pas complètement élucidé, il a été démontré qu‟elles n‟ont pas toutes le même contenu protéique et donc qu‟elles pourraient avoir des fonctions différentes.Au vu des résultats, notamment par leur implication dans la coagulation, il est fort probable que la présence de microparticules puisse affecter la qualité des produits sanguins, et causer des réactions transfusionnelles.
Resumo:
THESIS ABSTRACT : Low-temperature thermochronology relies on application of radioisotopic systems whose closure temperatures are below temperatures at which the dated phases are formed. In that sense, the results are interpreted as "cooling ages" in contrast to "formation ages". Owing to the low closure-temperatures, it is possible to reconstruct exhumation and cooling paths of rocks during their residence at shallow levels of the crust, i.e. within first ~10 km of depth. Processes occurring at these shallow depths such as final exhumation, faulting and relief formation are fundamental for evolution of the mountain belts. This thesis aims at reconstructing the tectono-thermal history of the Aar massif in the Central Swiss Alps by means of zircon (U-Th)/He, apatite (U-Th)/He and apatite fission track thermochronology. The strategy involved acquisition of a large number of samples from a wide range of elevations in the deeply incised Lötschen valley and a nearby NEAT tunnel. This unique location allowed to precisely constrain timing, amount and mechanisms of exhumation of the main orographic feature of the Central Alps, evaluate the role of topography on the thermochronological record and test the impact of hydrothermal activity. Samples were collected from altitudes ranging between 650 and 3930 m and were grouped into five vertical profiles on the surface and one horizontal in the tunnel. Where possible, all three radiometric systems were applied to each sample. Zircon (U-Th)/He ages range from 5.1 to 9.4 Ma and are generally positively correlated with altitude. Age-elevation plots reveal a distinct break in slope, which translates into exhumation rate increasing from ~0.4 to ~3 km/Ma at 6 Ma. This acceleration is independently confirmed by increased cooling rates on the order of 100°C/Ma constrained on the basis of age differences between the zircon (U-Th)/He and the remaining systems. Apatite fission track data also plot on a steep age-elevation curve indicating rapid exhumation until the end of the Miocene. The 6 Ma event is interpreted as reflecting tectonically driven uplift of the Aar massif. The late Miocene timing implies that the increase of precipitation in the Pliocene did not trigger rapid exhumation in the Aar massif. The Messinian salinity crisis in the Mediterranean could not directly intensify erosion of the Aar but associated erosional output from the entire Alps may have tapered the orogenic wedge and caused reactivation of thrusting in the Aar massif. The high exhumation rates in the Messinian were followed by a decrease to ~1.3 km/Ma as evidenced by ~8 km of exhumation during last 6 Ma. The slowing of exhumation is also apparent from apatite (U-Th)1He age-elevation data in the northern part of the Lötschen valley where they plot on a ~0.5km/Ma line and range from 2.4 to 6.4 Ma However, from the apatite (U-Th)/He and fission track data from the NEAT tunnel, there is an indication of a perturbation of the record. The apatite ages are youngest under the axis of the valley, in contrast to an expected pattern where they would be youngest in the deepest sections of the tunnel due to heat advection into ridges. The valley however, developed in relatively soft schists while the ridges are built of solid granitoids. In line with hydrological observations from the tunnel, we suggest that the relatively permeable rocks under the valley floor, served as conduits of geothermal fluids that caused reheating leading to partial Helium loss and fission track annealing in apatites. In consequence, apatite ages from the lowermost samples are too young and the calculated exhumation rates may underestimate true values. This study demonstrated that high-density sampling is indispensable to provide meaningful thermochronological data in the Alpine setting. The multi-system approach allows verifying plausibility of the data and highlighting sources of perturbation. RÉSUMÉ DE THÈSE : La thermochronologie de basse température dépend de l'utilisation de systèmes radiométriques dont la température de fermeture est nettement inférieure à la température de cristallisation du minéral. Les résultats obtenus sont par conséquent interprétés comme des âges de refroidissement qui diffèrent des âges de formation obtenus par le biais d'autres systèmes de datation. Grâce aux températures de refroidissement basses, il est aisé de reconstruire les chemins de refroidissement et d'exhumation des roches lors de leur résidence dans la croute superficielle (jusqu'à 10 km). Les processus qui entrent en jeu à ces faibles profondeurs tels que l'exhumation finale, la fracturation et le faillage ainsi que la formation du relief sont fondamentaux dans l'évolution des chaînes de montagne. Ces dernières années, il est devenu clair que l'enregistrement thermochronologique dans les orogènes peut être influencé par le relief et réinitialisé par l'advection de la chaleur liée à la circulation de fluides géothermaux après le refroidissement initial. L'objectif de cette thèse est de reconstruire l'histoire tectono-thermique du massif de l'Aar dans les Alpes suisses Centrales à l'aide de trois thermochronomètres; (U-Th)/He sur zircon, (U-Th)/He sur apatite et les traces de fission sur apatite. Afin d'atteindre cet objectif, nous avons récolté un grand nombre d'échantillons provenant de différentes altitudes dans la vallée fortement incisée de Lötschental ainsi que du tunnel de NEAT. Cette stratégie d'échantillonnage nous a permis de contraindre de manière précise la chronologie, les quantités et les mécanismes d'exhumation de cette zone des Alpes Centrales, d'évaluer le rôle de la topographie sur l'enregistrement thermochronologique et de tester l'impact de l'hydrothermalisme sur les géochronomètres. Les échantillons ont été prélevés à des altitudes comprises entre 650 et 3930m selon 5 profils verticaux en surface et un dans le tunnel. Quand cela à été possible, les trois systèmes radiométriques ont été appliqués aux échantillons. Les âges (U-Th)\He obtenus sur zircons sont compris entre 5.l et 9.4 Ma et sont corrélés de manière positive avec l'altitude. Les graphiques représentant l'âge et l'élévation montrent une nette rupture de la pente qui traduisent un accroissement de la vitesse d'exhumation de 0.4 à 3 km\Ma il y a 6 Ma. Cette accélération de l'exhumation est confirmée par les vitesses de refroidissement de l'ordre de 100°C\Ma obtenus à partir des différents âges sur zircons et à partir des autres systèmes géochronologiques. Les données obtenues par traces de fission sur apatite nous indiquent également une exhumation rapide jusqu'à la fin du Miocène. Nous interprétons cet évènement à 6 Ma comme étant lié à l'uplift tectonique du massif de l'Aar. Le fait que cet évènement soit tardi-miocène implique qu'une augmentation des précipitations au Pliocène n'a pas engendré cette exhumation rapide du massif de l'Aar. La crise Messinienne de la mer méditerranée n'a pas pu avoir une incidence directe sur l'érosion du massif de l'Aar mais l'érosion associée à ce phénomène à pu réduire le coin orogénique alpin et causer la réactivation des chevauchements du massif de l'Aar. L'exhumation rapide Miocène a été suivie pas une diminution des taux d'exhumation lors des derniers 6 Ma (jusqu'à 1.3 km\Ma). Cependant, les âges (U-Th)\He sur apatite ainsi que les traces de fission sur apatite des échantillons du tunnel enregistrent une perturbation de l'enregistrement décrit ci-dessus. Les âges obtenus sur les apatites sont sensiblement plus jeunes sous l'axe de la vallée en comparaison du profil d'âges attendus. En effet, on attendrait des âges plus jeunes sous les parties les plus profondes du tunnel à cause de l'advection de la chaleur dans les flancs de la vallée. La vallée est creusée dans des schistes alors que les flancs de celle-ci sont constitués de granitoïdes plus durs. En accord avec les observations hydrologiques du tunnel, nous suggérons que la perméabilité élevée des roches sous l'axe de la vallée à permi l'infiltration de fluides géothermaux qui a généré un réchauffement des roches. Ce réchauffement aurait donc induit une perte d'Hélium et un recuit des traces de fission dans les apatites. Ceci résulterait en un rajeunissement des âges apatite et en une sous-estimation des vitesses d'exhumation sous l'axe de la vallée. Cette étude à servi à démontrer la nécessité d'un échantillonnage fin et précis afin d'apporter des données thermochronologiques de qualité dans le contexte alpin. Cette approche multi-système nous a permi de contrôler la pertinence des données acquises ainsi que d'identifier les sources possibles d'erreurs lors d'études thermochronologiques. RÉSUMÉ LARGE PUBLIC Lors d'une orogenèse, les roches subissent un cycle comprenant une subduction, de la déformation, du métamorphisme et, finalement, un retour à la surface (ou exhumation). L'exhumation résulte de la déformation au sein de la zone de collision, menant à un raccourcissement et un apaissessement de l'édifice rocheux, qui se traduit par une remontée des roches, création d'une topographie et érosion. Puisque l'érosion agit comme un racloir sur la partie supérieure de l'édifice, des tentatives de corrélation entre les épisodes d'exhumation rapide et les périodes d'érosion intensive, dues aux changements climatiques, ont été effectuées. La connaissance de la chronologie et du lieu précis est d'une importance capitale pour une quelconque reconstruction de l'évolution d'une chaîne de montagne. Ces critères sont donnés par un retraçage des changements de la température de la roche en fonction du temps, nous donnant le taux de refroidissement. L'instant auquel les roches ont refroidit, passant une certaine température, est contraint par l'application de techniques de datation par radiométrie. Ces méthodes reposent sur la désintégration des isotopes radiogéniques, tels que l'uranium et le potassium, tous deux abondants dans les roches de la croûte terrestre. Les produits de cette désintégration ne sont pas retenus dans les minéraux hôtes jusqu'au moment du refroidissement de la roche sous une température appelée 'de fermeture' , spécifique à chaque système de datation. Par exemple, la désintégration radioactive des atomes d'uranium et de thorium produit des atomes d'hélium qui s'échappent d'un cristal de zircon à des températures supérieures à 200°C. En mesurant la teneur en uranium-parent, l'hélium accumulé et en connaissant le taux de désintégration, il est possible de calculer à quel moment la roche échantillonnée est passée sous la température de 200°C. Si le gradient géothermal est connu, les températures de fermeture peuvent être converties en profondeurs actuelles (p. ex. 200°C ≈ 7km), et le taux de refroidissement en taux d'exhumation. De plus, en datant par système radiométrique des échantillons espacés verticalement, il est possible de contraindre directement le taux d'exhumation de la section échantillonnée en observant les différences d'âges entre des échantillons voisins. Dans les Alpes suisses, le massif de l'Aar forme une structure orographique majeure. Avec des altitudes supérieures à 4000m et un relief spectaculaire de plus de 2000m, le massif domine la partie centrale de la chaîne de montagne. Les roches aujourd'hui exposées à la surface ont été enfouies à plus de 10 km de profond il y a 20 Ma, mais la topographie actuelle du massif de l'Aar semble surtout s'être développée par un soulèvement actif depuis quelques millions d'années, c'est-à-dire depuis le Néogène supérieur. Cette période comprend un changement climatique soudain ayant touché l'Europe il y a environ 5 Ma et qui a occasionné de fortes précipitations, entraînant certainement une augmentation de l'érosion et accélérant l'exhumation des Alpes. Dans cette étude, nous avons employé le système de datation (U-TH)/He sur zircon, dont la température de fermeture de 200°C est suffisamment basse pour caractériser l'exhumation du Néogène sup. /Pliocène. Les échantillons proviennent du Lötschental et du tunnel ferroviaire le plus profond du monde (NEAT) situé dans la partie ouest du massif de l'Aar. Considérés dans l'ensemble, ces échantillons se répartissent sur un dénivelé de 3000m et des âges de 5.1 à 9.4 Ma. Les échantillons d'altitude supérieure (et donc plus vieux) documentent un taux d'exhumation de 0.4 km/Ma jusqu'à il y a 6 Ma, alors que les échantillons situés les plus bas ont des âges similaires allant de 6 à 5.4 Ma, donnant un taux jusqu'à 3km /Ma. Ces données montrent une accélération dramatique de l'exhumation du massif de l'Aar il y a 6 Ma. L'exhumation miocène sup. du massif prédate donc le changement climatique Pliocène. Cependant, lors de la crise de salinité d'il y a 6-5.3 Ma (Messinien), le niveau de la mer Méditerranée est descendu de 3km. Un tel abaissement de la surface d'érosion peut avoir accéléré l'exhumation des Alpes, mais le bassin sud alpin était trop loin du massif de l'Aar pour influencer son érosion. Nous arrivons à la conclusion que la datation (U-Th)/He permet de contraindre précisément la chronologie et l'exhumation du massif de l'Aar. Concernant la dualité tectonique-érosion, nous suggérons que, dans le cas du massif de l'Aar, la tectonique prédomine.
Resumo:
RESUME Nous avons étudié le rôle de deux molécules, le Transfon-ning Growth Factor (TGF-β) et l'oxyde nitrique (NO), dans le processus métastatique. Deux clones tumoraux ont été sélectionnés à partir d'un carcinome du côlon pour leur différence de potentiel tumorigénique dans des rats syngéniques. La croissance tumorale du clone progressif PROb a été corrélée à sa capacité à sécréter le TGF-β actif Cependant, la transfection du clone régressif REGb, sécrétant du TGF-β latent, par une vecteur codant pour le TGF-β bio-actif n'a pas permis d'induire le développement tumoral. Les deux clones tumoraux présentent des activités des protéases MMP-2, APN et DPPIV identiques et qui ne semblent pas modifiées par le TGF-β. L'interaction des cellules tumorales avec l'endothélium et l'activité de la NO synthase (iNOS) responsable de la synthèse de NO sont impliqués dans la progression de nombreux cancers. Le clone PROb, mais pas le clone REGb, inhibe l'activation de la iNOS des cellules endothéliales par sa sécrétion de TGF-β actif Les deux clones montrent cependant des propriétés d'adhésion identiques aux cellules endothéliales et sont capables d'inhiber par contact cellulaire direct l'activation de la iNOS endothéliale. Ceci suggère que ces contacts directs pourraient créer un micro-environnement favorable à la conversion du TGF-β latent en TGF-β actif ou à d'autres interactions moléculaires pouvant réguler l'activation endothéliale. Par ailleurs, les deux clones activent des macrophages du système nerveux central, organe où ils ne forment pas de métastases, mais pas les macrophages circulants, illustrant des mécanismes différentiels et spécifiques dans l'activation de différents types de cellules immunitaires. Afin de mieux comprendre le rôle du NO dans la dissémination métastatique, deux clones cellulaires différant par le taux d'activité de la iNOS ont été sélectionnés à partir de la lignée murine parentale de carcinome du sein EMT-6. Bien que le NO soit un inhibiteur potentiel de la prolifération cellulaire, les deux clones montrent des propriétés prolifératives identiques in vitro. Les cellules EMT-6H qui produisent peu de NO in vitro forment de nombreux nodules tumoraux pulmonaires in vivo corrélés à une mortalité significative des souris syngéniques injectées. Les cellules EMT-6J qui présentent une expression élevée de iNOS et de NO induisent de rares nodules tumoraux pulmonaires et peu de mortalité. Dans ce modèle, l'expression tumorale de NO semble donc défavoriser la croissance tumorale. Les deux clones cellulaires ont des propriétés identiques d'adhésion et de prolifération mesurées in vitro sur des cellules endothéliales primaires isolées de différents organes et in vivo par une colocalisation identique dans les poumons de souris syngéniques 48h après leur injection. Les cellules EMT-6H présentent une activité MMP-2 plus élevée alors que les activités des protéases APN et DPPIV sont identiques dans les deux clones cellulaires. Le TGF-β soluble ainsi que les fibroblastes primaires bloquent la prolifération des deux clones cellulaires. Cependant, l'activation préalable des fibroblastes par du TGF-β restaure partiellement la prolifération du clone EMT-6H mais pas celle du clone EMT-6J. Ces résultats montrent que le rôle de molécules telles que le TGF-β et le NO tumoral dans la progression tumorale doit être considéré dans un contexte d'interactions des cellules tumorales avec les différentes types cellulaires de l'hôte: en particulier, notre travail souligne que les macrophages et les fibroblastes sont déterminants dans la progression métastatique des carcinomes du côlon ou du sein. RESUME DESTINE A UN LARGE PUBLIC Les métastases tumorales, disséminées et intraitables par chirurgie, représentent un problème majeur dans le traitement clinique du cancer. Elles sont dues à des cellules tumorales qui ont migré de leur site tumoral primaire, circulé et survécu dans le système vasculaire de l'hôte, échappé au système immunitaire, adhéré à et survécu sur l'endothélium des vaisseaux, et envahi le tissu sous-jacent où elles ont proliféré. Cette capacité à former des métastases implique de nombreux facteurs dont certains ont été identifiés mais dont le rôle reste controversé dans les différentes études. Nous nous sommes intéressés au rôle de l'oxyde nitrique (NO) et du facteur de croissance et de transformation cellulaire TGF-β. Dans les carcinomes du sein, l'expression des enzymes responsables de la synthèse de NO a été corrélée avec l'invasion tumorale mais aussi avec un pronostic favorable selon les études. Deux clones cellulaires ont été isolés à partir de la tumeur mammaire EMT-6 chez la souris. Le clone EMT-6H sécrète peu de NO et forme de nombreuses tumeurs dans les poumons des souris *entraînant leur décès. Le clone EMT-6J sécrète beaucoup de NO et ne se développe que peu dans les poumons. Dans ce modèle expérimental, le NO semble donc défavoriser la croissance tumorale. L'analyse des interactions avec les cellules de l'hôte rencontrées lors de la formation de métastases pulmonaires a montré que les deux clones cellulaires adhérent et prolifèrent de manière similaire sur les cellules endothéliales tapissant l'intérieur des vaisseaux sanguins. L'arrêt des cellules tumorales dans les poumons ne permet donc pas d'expliquer la différence de croissance tumorale. Cependant, le clone agressif EMT-6H présente une activité élevée d'une protéase (MMP-2) qui lui permettrait par la suite d'envahir le tissu pulmonaire. Par ailleurs, l'activation des fibroblastes du tissu pulmonaire par le TGF-β, une molécule observée dans des conditions inflammatoires, permet au clone agressif EMT-6H de proliférer mais inhibe la croissance du clone EMT-6J. Dans un modèle expérimental de carcinome du côlon, le TGF-β est considéré favorable à la croissance tumorale. Isolées à partir de la même tumeur initiale, deux lignées de cellules ont des comportements opposés lorsqu'elles sont injectées sous la peau des rats. La capacité de la lignée PROb à former des tumeurs a été corrélée à la sécrétion de TGF-β actif L'introduction du gène codant pour le TGF-β actif dans la lignée REGb, qui ne sécrète pas de TGF-β actif et ne forme pas de tumeurs chez le rat, ne restaure pas leur potentiel tumorigénique. Dans ce modèle, l'expression de TGF-β actif ne semble donc pas suffisante à la croissance tumorale. Les interactions avec différents types cellulaires de l'hôte ont été étudiées. Les deux lignées tumorales adhérent de manière similaire sur les cellules endothéliales et sont capables d'inhiber leur activation, un mécanisme qui pourrait participer à la destruction. Les deux lignées activent les cellules immunitaires du système nerveux central, un organe où elles ne forment pas de métastase. Ces résultats suggèrent que la sélection des cellules métastatiques ne s'effectue pas sur l'endothélium des vaisseaux sanguins mais à des étapes ultérieures dans le micro- environnement cellulaire du nouvel organe colonisé. SUMMARY Metastasis results from the migration of tumor cells from their primary tumor, circulation through the bloodstream, attachment to the endothelium, and invasion of the surrounding tissue where they create a microenvironnement favoring their growth. This multistep process implies various cellular interactions and molecules. Among those, we were interested in the role of the Transforming Growth Factor beta (TGF-β) and the nitric oxide (NO). Two cell lines were isolated from a rat colon tumor and assessed for their metastatic potential in vivo. The PROb cell line that expresses active TGF-β formed subcutaneous tumors in rats while the REGb cell line that expresses only latent TGF-β did not. Transfection of REGb cells with a plasmid encoding for the active form of TGF-β failed to restore their metastatic ability. Thus TGF-β secretion is not sufficient to induce colon carcinoma progression. Activities of various proteases such as APN, DPPIV and MMP were similar in both cell lines and were not regulated by TGF-β. Interactions with the endothelium as well as NO synthase activity (iNOS) and local NO concentrations are believed to be crucial steps in cancer metastasis. Coculture of the two clones with endothelial cells inhibited the cytokine-triggered activation of the iNOS enzyme in primary rat endothelial cells but only PROb cells were capable of increasing the expression of IL-6, a protumoral interleukin that may participate in the impairment of the anti-tumoral immune response of the host. Both cell lines exhibited potential to activate microglial cells but not bone marrow-derived macrophages, pointing to a differential regulation of specialized immune cells. To better understand the conflicting role of NO in breast cancer progression, two cell clones were selected from the murine tumorigenic cell line EMT-6 based on their iNOS activity and NO secretion. Although NO has been shown to inhibit cell proliferation, the two cell clones exhibited similar proliferation rates in vitro. The EMT-6H cells expressed little NO and grew actively in the lungs of syngenic mice, leading to their death. Opposite results were observed with the EMT-6J cells. In these in vivo conditions, NO seems to impair tumor growth. Both clones exhibited similar in vitro adhesive properties to primary endothelial cells isolated from various mouse organs and similar localization in the lungs of mice 48 hours after injection. Sustained metalloproteinase MMP-2 activity was detected in the tumorigenic EMT-6H clone, but not in the EMT-6J cells while other proteases such as APN and DPPIV showed no difference. These results suggested that the two clones differed in invasion steps following adhesion to the endothelium and that NO did not participate in previous steps. Consistent with this, both soluble TGF-β and supernatants of cultures of mouse primary lung fibroblasts inhibited the growth of the two clones. However, previous activation of these fibroblasts with TGF-β restored the growth of the tumorigenic EMT-6H cells, but not of EMT-6J cells. Altogether, these results indicate that the role of a given molecule, such as NO or TGF-β, must be considered in a context of interaction of tumor cells with host cells. They further imply that interaction of tumor cells with specialized immune cells and with stromal cells of the colonized organ, rather than with the endothelium, are critical in regulating metastasis.
Resumo:
ABSTRACT (FRENCH)Ce travail de thèse basé sur le système visuel chez les sujets sains et chez les patients schizophrènes, s'articule autour de trois articles scientifiques publiés ou en cours de publication. Ces articles traitent des sujets suivants : le premier article présente une nouvelle méthode de traitement des composantes physiques des stimuli (luminance et fréquence spatiale). Le second article montre, à l'aide d'analyses de données EEG, un déficit de la voie magnocellulaire dans le traitement visuel des illusions chez les patients schizophrènes. Ceci est démontré par l'absence de modulation de la composante PI chez les patients schizophrènes contrairement aux sujets sains. Cette absence est induite par des stimuli de type illusion Kanizsa de différentes excentricités. Finalement, le troisième article, également à l'aide de méthodes de neuroimagerie électrique (EEG), montre que le traitement des contours illusoires se trouve dans le complexe latéro-occipital (LOC), à l'aide d'illusion « misaligned gratings ». De plus il révèle que les activités démontrées précédemment dans les aires visuelles primaires sont dues à des inférences « top- down ».Afin de permettre la compréhension de ces trois articles, l'introduction de ce manuscrit présente les concepts essentiels. De plus des méthodes d'analyses de temps-fréquence sont présentées. L'introduction est divisée en quatre parties : la première présente le système visuel depuis les cellules retino-corticales aux deux voix du traitement de l'information en passant par les régions composant le système visuel. La deuxième partie présente la schizophrénie par son diagnostic, ces déficits de bas niveau de traitement des stimuli visuel et ces déficits cognitifs. La troisième partie présente le traitement des contours illusoires et les trois modèles utilisés dans le dernier article. Finalement, les méthodes de traitement des données EEG seront explicitées, y compris les méthodes de temps-fréquences.Les résultats des trois articles sont présentés dans le chapitre éponyme (du même nom). De plus ce chapitre comprendra les résultats obtenus à l'aide des méthodes de temps-fréquenceFinalement, la discussion sera orientée selon trois axes : les méthodes de temps-fréquence ainsi qu'une proposition de traitement de ces données par une méthode statistique indépendante de la référence. La discussion du premier article en montrera la qualité du traitement de ces stimuli. La discussion des deux articles neurophysiologiques, proposera de nouvelles d'expériences afin d'affiner les résultats actuels sur les déficits des schizophrènes. Ceci pourrait permettre d'établir un marqueur biologique fiable de la schizophrénie.ABSTRACT (ENGLISH)This thesis focuses on the visual system in healthy subjects and schizophrenic patients. To address this research, advanced methods of analysis of electroencephalographic (EEG) data were used and developed. This manuscript is comprised of three scientific articles. The first article showed a novel method to control the physical features of visual stimuli (luminance and spatial frequencies). The second article showed, using electrical neuroimaging of EEG, a deficit in spatial processing associated with the dorsal pathway in chronic schizophrenic patients. This deficit was elicited by an absent modulation of the PI component in terms of response strength and topography as well as source estimations. This deficit was orthogonal to the preserved ability to process Kanizsa-type illusory contours. Finally, the third article resolved ongoing debates concerning the neural mechanism mediating illusory contour sensitivity by using electrical neuroimaging to show that the first differentiation of illusory contour presence vs. absence is localized within the lateral occipital complex. This effect was subsequent to modulations due to the orientation of misaligned grating stimuli. Collectively, these results support a model where effects in V1/V2 are mediated by "top-down" modulation from the LOC.To understand these three articles, the Introduction of this thesis presents the major concepts used in these articles. Additionally, a section is devoted to time-frequency analysis methods not presented in the articles themselves. The introduction is divided in four parts. The first part presents three aspects of the visual system: cellular, regional, and its functional interactions. The second part presents an overview of schizophrenia and its sensoiy-cognitive deficits. The third part presents an overview of illusory contour processing and the three models examined in the third article. Finally, advanced analysis methods for EEG are presented, including time- frequency methodology.The Introduction is followed by a synopsis of the main results in the articles as well as those obtained from the time-frequency analyses.Finally, the Discussion chapter is divided along three axes. The first axis discusses the time frequency analysis and proposes a novel statistical approach that is independent of the reference. The second axis contextualizes the first article and discusses the quality of the stimulus control and direction for further improvements. Finally, both neurophysiologic articles are contextualized by proposing future experiments and hypotheses that may serve to improve our understanding of schizophrenia on the one hand and visual functions more generally.