233 resultados para Optimisation sous contraintes

em Université de Lausanne, Switzerland


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Chez les patients cancéreux, les cellules malignes sont souvent reconnues et détruites par les cellules T cytotoxiques du patient. C'est pourquoi, depuis plusieurs années, des recherches visent à produire des vaccins sensibilisant les cellules de l'immunité adaptative, afin de prévenir certains cancers. Bien que les vaccins ciblant les cellules T CD8+ (cytotoxiques) ont une efficacité in-vitro élevée, un vaccin pouvant cibler les cellules T CD8+ et CD4+ aurait une plus grande efficacité (1-3). En effet, les cellules T helper (CD4+) favorisent la production et la maintenance des cellules T CD8+ mémoires à longue durée de vie. Il existe un grand nombre de sous-types de cellules T CD4+ et leur action envers les cellules cancéreuses est différente. Par exemple, les lymphocytes Treg ont une activité pro-tumorale importante (4) et les lymphocytes Th1 ont une activité anti-tumorale (5). Cependant, le taux naturel des différents sous-types de cellules T CD4+ spécifiques aux antigènes tumoraux est variable. De plus, une certaine flexibilité des différents sous-types de cellules T CD4+ a été récemment démontrée (6). Celle-ci pourrait être ciblée par des protocoles de vaccination avec des antigènes tumoraux administrés conjointement à des adjuvants définis. Pour cela, il faut approfondir les connaissances sur le rôle des cellules T CD4+ spécifiques aux antigènes dans l'immunité anti-tumorale et connaître précisément la proportion des sous-types de cellules T CD4+ activées avant et après la vaccination. L'analyse des cellules T, par la cytométrie de flux, est très souvent limité par le besoin d'un nombre très élevé de cellules pour l'analyse de l'expression protéique. Or dans l'analyse des cellules T CD4+ spécifiques aux antigènes tumoraux cette technique n'est souvent pas applicable, car ces cellules sont présentes en très faible quantité dans le sang et dans les tissus tumoraux. C'est pourquoi, une approche basée sur l'analyse de la cellule T individuelle a été mise en place afin d'étudier l'expression du profil génétique des cellules T CD8+ et CD4+. (7,8) Méthode : Ce nouveau protocole (« single cell ») a été élaboré à partir d'une modification du protocole PCR-RT, qui permet la détection spécifique de l'ADN complémentaire (ADNc) après la transcription globale de l'ARN messager (ARNm) exprimé par une cellule T individuelle. Dans ce travail, nous optimisons cette nouvelle technique d'analyse pour les cellules T CD4+, en sélectionnant les meilleures amorces. Tout d'abord, des clones à profils fonctionnels connus sont générés par cytométrie de flux à partir de cellules T CD4+ d'un donneur sain. Pour cette étape d'optimisation des amorces, la spécificité des cellules T CD4+ n'est pas prise en considération. Il est, donc, possible d'étudier et de trier ces clones par cytométrie de flux. Ensuite, grâce au protocole « single cell », nous testons par PCR les amorces des différents facteurs spécifiques de chaque sous-type des T CD4+ sur des aliquotes issus d'une cellule provenant des clones générés. Nous sélectionnons les amorces dont la sensibilité, la spécificité ainsi que les valeurs prédictives positives et négatives des tests sont les meilleures. (9) Conclusion : Durant ce travail nous avons généré de l'ADNc de cellules T individuelles et sélectionné douze paires d'amorces pour l'identification des sous-types de cellules T CD4+ par la technique d'analyse PCR « single cell ». Les facteurs spécifiques aux cellules Th2 : IL-4, IL-5, IL-13, CRTh2, GATA3 ; les facteurs spécifiques aux cellules Th1 : TNFα, IL-2 ; les facteurs spécifiques aux cellules Treg : FOXP3, IL-2RA ; les facteurs spécifiques aux cellules Th17 : RORC, CCR6 et un facteur spécifique aux cellules naïves : CCR7. Ces amorces peuvent être utilisées dans le futur en combinaison avec des cellules antigènes-spécifiques triées par marquage des multimères pMHCII. Cette méthode permettra de comprendre le rôle ainsi que l'amplitude et la diversité fonctionnelle de la réponse de la cellule T CD4+ antigène-spécifique dans les cancers et dans d'autres maladies. Cela afin d'affiner les recherches en immunothérapie oncologique. (8)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une condition inévitablement fatale à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins totaux, libres et/ou cellulaires des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie, cette dernière étant certainement un enjeu majeur pour un traitement qui se prend à vie.L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques (PK) et pharmacogénétiques (PG) influençant l'exposition aux médicaments antirétroviraux (ARVs) nous offrant ainsi une base rationnelle pour l'optimisation du traitement antiviral et pour l'ajustement posologique des médicaments chez les patients VIH-positifs. Une thérapie antirétrovirale adaptée au patient est susceptible d'augmenter la probabilité d'efficacité et de tolérance à ce traitement, permettant ainsi une meilleure compliance à long terme, et réduisant le risque d'émergence de résistance et d'échec thérapeutique.A cet effet, des méthodes de quantification des concentrations plasmatiques totales, libres et cellulaires des ARVs ainsi que de certains de leurs métabolites ont été développées et validées en utilisant la chromatographie liquide coupée à la spectrométrie de masse en tandem. Ces méthodes ont été appliquées pour la surveillance des taux d'ARVs dans diverses populations de patients HIV-positifs. Une étude clinique a été initiée dans le cadre de l'étude VIH Suisse de cohorte mère-enfant afin de déterminer si la grossesse influence la cinétique des ARVs. Les concentrations totales et libres du lopînavir, de l'atazanavir et de la névirapine ont été déterminées chez les femmes enceintes suivies pendant leur grossesse, et celles-ci ont été trouvées non influencées de manière cliniquement significative par la grossesse. Un ajustement posologique de ces ARVs n'est donc pas nécessaire chez les femmes enceintes. Lors d'une petite étude chez des patients HIV- positifs expérimentés, la corrélation entre l'exposition cellulaire et plasmatique des nouveaux ARVs, notamment le raltégravir, a été déterminée. Une bonne corrélation a été obtenue entre taux plasmatiques et cellulaires de raltégravir, suggérant que la surveillance des taux totaux est un substitut satisfaisant. Cependant, une importante variabilité inter¬patient a été observée dans les ratios d'accumulation cellulaire du raltégravir, ce qui devrait encourager des investigations supplémentaires chez les patients en échec sous ce traitement. L'efficacité du suivi thérapeutique des médicaments (TDM) pour l'adaptation des taux d'efavirenz chez des patients avec des concentrations au-dessus de la cible thérapeutique recommandée a été évaluée lors d'une étude prospective. L'adaptation des doses d'efavirenz basée sur le TDM s'est montrée efficace et sûre, soutenant l'utilisation du TDM chez les patients avec concentrations hors cible thérapeutique. L'impact des polymorphismes génétiques des cytochromes P450 (CYP) 2B6, 2A6 et 3A4/5 sur la pharmacocinétique de l'efavirenz et de ces métabolites a été étudié : un modèle de PK de population intégrant les covariats génétiques et démographiques a été construit. Les variations génétiques fonctionnelles dans les voies de métabolisation principales (CYP2B6) et accessoires {CYP2A6et 3A4/S) de l'efavirenz ont un impact sur sa disposition, et peuvent mener à des expositions extrêmes au médicament. Un? ajustement des doses guidé par le TDM est donc recommandé chez ces patients, en accord avec les polymorphismes génétiques.Ainsi, nous avons démonté qu'en utilisant une approche globale tenant compte à la fois des facteurs PK et PG influençant l'exposition aux ARVs chez les patients infectés, il est possible, si nécessaire, d'individualiser la thérapie antirétrovirale dans des situations diverses. L'optimisation du traitement antirétroviral contribue vraisemblablement à une meilleure efficacité thérapeutique à iong terme tout en réduisant la survenue d'effets indésirables.Résumé grand publicOptimisation de la thérapie antirétrovirale: approches pharmacocinétiques et pharmacogénétiquesLes progrès effectués dans le traitement de l'infection par le virus de llmmunodéficienoe humaine acquise (VIH) ont permis de transformer une affection mortelle en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, un certain nombre de patients ne répondent pas de façon optimale à leur traitement etyou souffrent d'effets indésirables médicamenteux entraînant de fréquentes modifications dans leur thérapie. Il a été possible de mettre en évidence que l'efficacité d'un traitement antirétroviral est dans la plupart des cas corrélée aux concentrations de médicaments mesurées dans le sang des patients. Cependant, le virus se réplique dans la cellule, et seule la fraction des médicaments non liée aux protéines du plasma sanguin peut entrer dans la cellule et exercer l'activité antirétrovirale au niveau cellulaire. Il existe par ailleurs une importante variabilité des concentrations sanguines de médicament chez des patients prenant pourtant la même dose de médicament. Cette variabilité peut être due à des facteurs démographiques et/ou génétiques susceptibles d'influencer la réponse au traitement antirétroviral.Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'efficacité et ta toxicité des médicaments antirétroviraux, dans le but d'individualiser la thérapie antivirale et d'améliorer le suivi des patients HIV-positifs.A cet effet, des méthodes de dosage très sensibles ont été développées pour permettre la quantification des médicaments antirétroviraux dans le sang et les cellules. Ces méthodes analytiques ont été appliquées dans le cadre de diverses études cliniques réalisées avec des patients. Une des études cliniques a recherché s'il y avait un impact des changements physiologiques liés à la grossesse sur les concentrations des médicaments antirétroviraux. Nous avons ainsi pu démontrer que la grossesse n'influençait pas de façon cliniquement significative le devenir des médicaments antirétroviraux chez les femmes enceintes HIV- positives. La posologie de médicaments ne devrait donc pas être modifiée dans cette population de patientes. Par ailleurs, d'autres études ont portés sur les variations génétiques des patients influençant l'activité enzymatique des protéines impliquées dans le métabolisme des médicaments antirétroviraux. Nous avons également étudié l'utilité d'une surveillance des concentrations de médicament (suivi thérapeutique) dans le sang des patients pour l'individualisation des traitements antiviraux. Il a été possible de mettre en évidence des relations significatives entre l'exposition aux médicaments antirétroviraux et l'existence chez les patients de certaines variations génétiques. Nos analyses ont également permis d'étudier les relations entre les concentrations dans le sang des patients et les taux mesurés dans les cellules où le virus HIV se réplique. De plus, la mesure des taux sanguins de médicaments antirétroviraux et leur interprétation a permis d'ajuster la posologie de médicaments chez les patients de façon efficace et sûre.Ainsi, la complémentarité des connaissances pharmacologiques, génétiques et virales s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient et vise à l'individualisation de la thérapie antirétrovirale en fonction des caractéristiques propres de chaque individu. Cette approche contribue ainsi à l'optimisation du traitement antirétroviral dans la perspective d'un succès du traitement à long terme tout en réduisant la probabilité des effets indésirables rencontrés. - The improvement in antirétroviral therapy has transformed HIV infection from an inevitably fatal condition to a chronic, manageable disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of total, free and/or cellular drug level may increase both drug efficacy and tolerability. Drug tolerability is certainly a major issue for a treatment that must be taken indefinitely.The global objective of this thesis aimed at increasing our current understanding of pharmacokinetic (PK) and pharmacogenetic (PG) factors influencing the exposition to antirétroviral drugs (ARVs) in HIV-positive patients. In turn, this should provide us with a rational basis for antiviral treatment optimisation and drug dosage adjustment in HIV- positive patients. Patient's tailored antirétroviral regimen is likely to enhance treatment effectiveness and tolerability, enabling a better compliance over time, and hence reducing the probability of emergence of viral resistance and treatment failure.To that endeavour, analytical methods for the measurement of total plasma, free and cellular concentrations of ARVs and some of their metabolites have been developed and validated using liquid chromatography coupled with tandem mass spectrometry. These assays have been applied for the monitoring of ARVs levels in various populations of HIV- positive patients. A clinical study has been initiated within the frame of the Mother and Child Swiss HIV Cohort Study to determine whether pregnancy influences the exposition to ARVs. Free and total plasma concentrations of lopinavir, atazanavir and nevirapine have been determined in pregnant women followed during the course of pregnancy, and were found not influenced to a clinically significant extent by pregnancy. Dosage adjustment for these drugs is therefore not required in pregnant women. In a study in treatment- experienced HIV-positive patients, the correlation between cellular and total plasma exposure to new antirétroviral drugs, notably the HIV integrase inhibitor raltegravir, has been determined. A good correlation was obtained between total and cellular levels of raltegravir, suggesting that monitoring of total levels are a satisfactory. However, significant inter-patient variability was observed in raltegravir cell accumulation which should prompt further investigations in patients failing under an integrase inhibitor-based regimen. The effectiveness of therapeutic drug monitoring (TDM) to guide efavirenz dose reduction in patients having concentrations above the recommended therapeutic range was evaluated in a prospective study. TDM-guided dosage adjustment of efavirenz was found feasible and safe, supporting the use of TDM in patients with efavirenz concentrations above therapeutic target. The impact of genetic polymorphisms of cytochromes P450 (CYP) 2B6, 2A6 and 3A4/5 on the PK of efavirenz and its metabolites was studied: a population PK model was built integrating both genetic and demographic covariates. Functional genetic variations in main (CYP2B6) and accessory (2A6, 3A4/5) metabolic pathways of efavirenz have an impact on efavirenz disposition, and may lead to extreme drug exposures. Dosage adjustment guided by TDM is thus required in those patients, according to the pharmacogenetic polymorphism.Thus, we have demonstrated, using a comprehensive approach taking into account both PK and PG factors influencing ARVs exposure in HIV-infected patients, the feasibility of individualising antirétroviral therapy in various situations. Antiviral treatment optimisation is likely to increase long-term treatment success while reducing the occurrence of adverse drug reactions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction générale : D'après une étude réalisée en Suisse en 2004, les entreprises de famille représentent 88,14% des entreprises, dont 80,2% sont constitués en sociétés anonymes. Les chiffres parlent d'eux-mêmes : les sociétés anonymes de famille occupent une place considérable dans le paysage des entreprises suisses. Les sociétés anonymes de famille correspondent donc à une réalité pratique. Juridiquement, la notion de société de famille n'apparaît pas dans le Code des obligations ; les sociétés anonymes de famille revêtent la forme juridique de la société anonyme, qui représente l'entreprise commerciale la plus courante en pratique. Le Code des obligations, à ses art. 620 ss, se limite à donner un cadre général de réglementation, ce qui a notamment pour conséquence que la forme juridique de la société anonyme s'adapte à des entités très variées, dans toutes sortes de secteurs d'activité, que ce soient des petites et moyennes entreprises ou de grandes multinationales, des sociétés capitalistes et impersonnelles ou des sociétés purement privées. Selon la conception générale de la forme juridique de la société anonyme, celle-ci revêt en principe un caractère capitaliste. L'intérêt de l'actionnaire pour la société anonyme est normalement de nature financière. Le fait que la qualité d'actionnaire soit matérialisée dans un titre, l'action, implique tant une certaine liquidité de l'actionnariat qu'une dépersonnalisation des rapports entre les membres qui composent la société anonyme. A l'opposé, la famille repose sur des liens personnels particuliers, étroits, avec notamment des dimensions psychologiques, affectives, émotives. Au premier abord, société anonyme et famille semblent donc antinomiques. Cette dichotomie présente un intérêt dogmatique. Elle correspond en outre à l'un des principaux enjeux : comment tenir compte des intérêts d'une entité fortement personnalisée - la famille - dans une structure impersonnelle et de type capitaliste - la société anonyme ? Le fait que le Code des obligations se limite à donner un cadre général de réglementation prend alors ici toute son importance ; la marge de manoeuvre et la liberté d'aménagement que le législateur accorde aux sociétés anonymes r vont permettre - ou alors empêcher - d'adapter la forme juridique de la société anonyme aux besoins d'une entité personnalisée comme la famille. Cette liberté n'est donc pas sans limites et les membres de la famille devront peut-être aussi assumer les conséquences du choix de cette forme de société. Partant, le but de notre travail est d'étudier les raisons d'être, l'organisation et la pérennité des sociétés anonymes de famille, spécifiquement sous l'angle du maintien du caractère familial de la société. Nous nous concentrerons sur la détention du capital, mais aussi sur sa structure, son maintien et son optimisation ; nous aborderons ainsi notamment les questions relatives à la transmissibilité des actions. Au regard de l'ampleur du sujet, nous avons dû procéder à certains choix, parfois arbitraires, notamment en raison des implications presque infinies des règles avec d'autres domaines. Nous nous limiterons ainsi, dans la première partie, à exposer les notions de base employées dans la suite de notre travail et nous focaliserons sur l'élaboration des définitions d'entreprise, société et société anonyme de famille, prémisses non seulement essentielles sous l'angle théorique, mais aussi fondamentales pour nos développements ultérieurs. S'agissant ensuite de l'analyse des possibilités d'aménagement d'une société anonyme dans le cadre du maintien du caractère familial de la société, nous nous concentrerons sur les règles relatives à la société anonyme et étudierons les limites qu'elles imposent et la liberté qu'elles offrent aux actionnaires familiaux. Nous laisserons en revanche de côté les problématiques particulières de la protection des actionnaires minoritaires et des organes. Enfin, si nous traitons toutes les notions théoriques nécessaires à la compréhension de chaque thématique présentée, seules celles primordiales et déterminantes sous l'angle de la conservation de l'hégémonie familiale seront approfondies. Nous avons structuré notre étude en quatre titres. Dans un premier titre, nous développerons les notions et principes élémentaires de notre sujet. Nous rappellerons ainsi la définition et les particularités de la société anonyme en général, y compris les sources et les modifications législatives, et les conditions de la cotation en bourse. Au stade des notions introductives, nous devrons également définir la société anonyme de famille, en particulier en établissant les éléments de la définition. Qu'entend-on par famille ? Quels critères permettent de qualifier une société anonyme de « société anonyme de famille » ? La définition de la société anonyme de famille devra être à la fois suffisamment précise, afin que cette notion puisse être appréhendée de manière adéquate pour la suite de notre travail, et suffisamment large, pour qu'elle englobe toute la variété des sociétés anonymes de famille. Nous présenterons aussi les raisons du choix de la forme juridique de la société anonyme pour une société de famille. Nous terminerons nos développements introductifs par un exposé relatif à la notion d'action et à son transfert en sa qualité de papier-valeur, préalables nécessaires à nos développements sur la transmissibilité des actions. Nous mettrons ainsi en évidence les conditions de transfert des actions, en tenant compte de la tendance à la dématérialisation des titres. Une fois ces éléments mis en place, qui nous donneront une première idée de la structure du capital d'une société anonyme de famille, nous devrons préciser la manière dont le capital doit être structuré. Nous chercherons comment il peut être maintenu en mains de la famille et si d'autres moyens n'ayant pas directement trait au capital peuvent être mis en oeuvre. Ainsi, dans un deuxième titre, nous analyserons les dispositions statutaires relatives à la structure du capital et à son maintien en mains familiales, en particulier les restrictions au transfert des actions nominatives. Les dispositions statutaires constituent-elles un moyen adéquat pour maintenir le caractère familial de la société ? Quelles sont les conditions pour limiter le transfert des actions ? Le caractère familial de la société peut-il être utilisé afin de restreindre le transfert des actions ? Les solutions sont-elles différentes si les actions sont, en tout ou en partie, cotées en bourse ? Nous traiterons aussi, dans ce même titre, les modalités du droit de vote et déterminerons si des dispositions statutaires peuvent être aménagées afin de donner plus de voix aux actions des membres de la famille et ainsi d'optimiser la détention du capital. Nous examinerons, dans notre troisième titre, un acte qui a trait à la fois au droit des contrats et au droit de la société anonyme, la convention d'actionnaires. En quoi consistent ces contrats ? Quels engagements les actionnaires familiaux peuvent-ils et doivent-ils prendre ? Quelle est l'utilité de ces contrats dans les sociétés anonymes de famille ? Quelles en sont les limites ? Les clauses conventionnelles peuvent-elles être intégrées dans les statuts ? Comment combiner les différentes clauses de la convention entre elles ? Dans ce même titre, nous étudierons également la concrétisation et la mise en application des dispositions statutaires et des clauses conventionnelles, afin de déterminer si, combinées, elles constituent des moyens adéquats pour assurer la structure, le maintien et l'optimisation de la détention du capital. Enfin, dans le quatrième et dernier titre, qui est davantage conçu comme un excursus, nous nous éloignerons du domaine strict du droit des sociétés (et des contrats) pour envisager certains aspects matrimoniaux et d'ordre successoral. En effet, puisque la famille est à la base de la société, il convient de relever l'importance des règles matrimoniales et successorales pour les sociétés anonymes de famille et leur incidence sur la détention des actions et le maintien du caractère familial de la société. Nous examinerons en particulier comment ces instruments doivent être utilisés pour qu'ils n'annihilent pas les efforts entrepris pour conserver la société en mains familiales. Notre travail a pour but et pour innovation de présenter une analyse transversale aussi complète que possible du droit de la société anonyme et des instruments connexes en étudiant les moyens à disposition des actionnaires d'une société anonyme de type personnel, la société anonyme de famille. Il tentera ainsi d'apporter une approche théorique nouvelle de ces questions, de présenter certains aspects de manière pragmatique, d'analyser la mise en oeuvre des différents moyens étudiés et de discuter leur opportunité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract The purpose of this study is to unravel the geodynamic evolution of Thailand and, from that, to extend the interpretation to the rest of Southeast Asia. The methodology was based in a first time on fieldwork in Northern Thailand and Southernmost Myanmar, using a multidisciplinary approach, and then on the compilation and re-interpretation, in a plate tectonics point of view, of existing data about the whole Southeast Asia. The main results concern the Nan-Uttaradit suture, the Chiang Mai Volcanic Belt and the proposition of a new location for the Palaeotethys suture. This led to the establishment of a new plate tectonic model for the geodynamic evolution of Southeast Asia, implying the existence new terranes (Orang Laut and the redefinition of Shan-Thai) and the role of the Palaeopacific Ocean in the tectonic development of the area. The model proposed here considers the Palaeotethys suture as located along the Tertiary Mae Yuam Fault, which represents the divide between the Cimmerian Sibumasu terrane and the Indochina-derived Shan-Thai block. The term Shan-Thai, previously used to define the Cimmerian area (when the Palaeotethys suture was thought to represented by the Nan-Uttaradit suture), was redefined here by keeping its geographical location within the Shan States of Myanmar and Central-Northern Thailand, but attributing it an East Asian Origin. Its detachment from Indochina was the result of the Early Permian opening of the Nan basin. The Nan basin closed during the Middle Triassic, before the deposition of Carnian-Norian molasse. The modalities of the closure of the basin imply a first phase of Middle Permian obduction, followed by final eastwards subduction. The Chiang Mai Volcanic Belt consists of scattered basaltic rocks erupted at least during the Viséan in an extensional continental intraplate setting, on the Shan-Thai part of the Indochina block. The Viséan age was established by the dating of limestone stratigraphically overlying the basalts. In several localities of the East Asian Continent, coeval extensional features occur, possibly implying one or more Early Carboniferous extensional events at a regional scale. These events occurred either due to the presence of a mantle plume or to the roll-back of the Palaeopacific Ocean, subducting beneath Indochina and South China, or both. The Palaeopacific Ocean is responsible, during the Early Permian, for the opening of the Song Ma and Poko back-arcs (Vietnam) with the consequent detachment of the Orang Laut Terranes (Eastern Vietnam, West Sumatra, Kalimantan, Palawan, Taiwan). The Late Triassic/Early Jurassic closure of the Eastern Palaeotethys is considered as having taken place by subduction beneath its southern margin (Gondwana), due to the absence of Late Palaeozoic arc magmatism on its northern (Indochinese) margin and the presence of volcanism on the Cimmerian blocks (Mergui, Lhasa). Résumé Le but de cette étude est d'éclaircir l'évolution géodynamique de la Thaïlande et, à partir de cela, d'étendre l'interprétation au reste de l'Asie du Sud-Est. La méthodologie utilisée est basée dans un premier temps sur du travail de terrain en Thaïlande du nord et dans l'extrême sud du Myanmar, en se basant sur une approche pluridisciplinaire. Dans un deuxième temps, la compilation et la réinterprétation de données préexistantes sur l'Asie du Sud-est la été faite, dans une optique basée sur la tectonique des plaques. Les principaux résultats de ce travail concernent la suture de Nan-Uttaradit, la « Chiang Mai Volcanic Belt» et la proposition d'une nouvelle localité pour la suture de la Paléotethys. Ceci a conduit à l'établissement d'un nouveau modèle pour l'évolution géodynamique de l'Asie du Sud-est, impliquant l'existence de nouveaux terranes (Orang Laut et Shan-Thai redéfini) et le rôle joué par le Paléopacifique dans le développement tectonique de la région. Le modèle présenté ici considère que la suture de la Paléotethys est située le long de la faille Tertiaire de Mae Yuam, qui représente la séparation entre le terrain Cimmérien de Sibumasu et le bloc de Shan-Thai, d'origine Indochinoise. Le terme Shan-Thai, anciennement utilise pour définir le bloc Cimmérien (quand la suture de la Paléotethys était considérée être représentée par la suture de Nan-Uttaradit), a été redéfini ici en maintenant sa localisation géographique dans les états Shan du Myanmar et la Thaïlande nord-centrale, mais en lui attribuant une origine Est Asiatique. Son détachement de l'Indochine est le résultat de l'ouverture du basin de Nan au Permien Inférieur. Le basin de Nan s'est fermé pendant le Trias Moyen, avant le dépôt de molasse Carnienne-Norienne. Les modalités de fermeture du basin invoquent une première phase d'obduction au Permien Moyen, suivie par une subduction finale vers l'est. La "Chiang Mai Volcanic Belt" consiste en des basaltes éparpillés qui ont mis en place au moins pendant le Viséen dans un contexte extensif intraplaque continental sur la partie de l'Indochine correspondant au bloc de Shan-Thai. L'âge Viséen a été établi sur la base de la datation de calcaires qui surmontent stratigraphiquement les basaltes. Dans plusieurs localités du continent Est Asiatique, des preuves d'extension plus ou moins contemporaines ont été retrouvées, ce qui implique l'existence d'une ou plusieurs phases d'extension au Carbonifère Inférieur a une échelle régionale. Ces événements sont attribués soit à la présence d'un plume mantellique, ou au rollback du Paléopacifique, qui subductait sous l'Indochine et la Chine Sud, soit les deux. Pendant le Permien inférieur, le Paléopacifique est responsable pour l'ouverture des basins d'arrière arc de Song Ma et Poko (Vietnam), induisant le détachement des Orang Laut Terranes (Est Vietnam, Ouest Sumatra, Kalimantan, Palawan, Taiwan). La fermeture de la Paléotethys Orientale au Trias Supérieur/Jurassique Inférieur est considérée avoir eu lieu par subduction sous sa marge méridionale (Gondwana), à cause de l'absence de magmatisme d'arc sur sa marge nord (Indochinoise) et de la présence de volcanisme sur les blocs Cimmériens de Lhassa et Sibumasu (Mergui). Résumé large public L'histoire géologique de l'Asie du Sud-est depuis environ 430 millions d'années a été déterminée par les collisions successives de plusieurs continents les uns avec les autres. Il y a environ 430 millions d'années, au Silurien, un grand continent appelé Gondwana, a commencé à se «déchirer» sous l'effet des contraintes tectoniques qui le tiraient. Cette extension a provoqué la rupture du continent et l'ouverture d'un grand océan, appelé Paléotethys, éloignant les deux parties désormais séparées. C'est ainsi que le continent Est Asiatique, composé d'une partie de la Chine actuelle, de la Thaïlande, du Myanmar, de Sumatra, du Vietnam et de Bornéo a été entraîné avec le bord (marge) nord de la Paléotethys, qui s'ouvrait petit à petit. Durant le Carbonifère Supérieur, il y a environ 300 millions d'années, le sud du Gondwana subissait une glaciation, comme en témoigne le dépôt de sédiments glaciaires dans les couches de cet âge. Au même moment le continent Est Asiatique se trouvait à des latitudes tropicales ou équatoriales, ce qui permettait le dépôt de calcaires contenant différents fossiles de foraminifères d'eau chaude et de coraux. Durant le Permien Inférieur, il y a environ 295 millions d'années, la Paléotethys Orientale, qui était un relativement vieil océan avec une croûte froide et lourde, se refermait. La croûte océanique a commencé à s'enfoncer, au sud, sous le Gondwana. C'est ce que l'on appelle la subduction. Ainsi, le Gondwana s'est retrouvé en position de plaque supérieure, par rapport à la Paléotethys qui, elle, était en plaque inférieure. La plaque inférieure en subductant a commencé à reculer. Comme elle ne pouvait pas se désolidariser de la plaque supérieure, en reculant elle l'a tirée. C'est le phénomène du «roll-back ». Cette traction a eu pour effet de déchirer une nouvelle fois le Gondwana, ce qui a résulté en la création d'un nouvel Océan, la Neotethys. Cet Océan en s'ouvrant a déplacé une longue bande continentale que l'on appelle les blocs Cimmériens. La Paléotethys était donc en train de se fermer, la Neotethys de s'ouvrir, et entre deux les blocs Cimmériens se rapprochaient du Continent Est Asiatique. Pendant ce temps, le continent Est Asiatique était aussi soumis à des tensions tectoniques. L'Océan Paléopacifique, à l'est de celui-ci, était aussi en train de subducter. Cette subduction, par roll-back, a déchiré le continent en détachant une ligne de microcontinents appelés ici « Orang Laut Terranes », séparés du continent par deux océans d'arrière arc : Song Ma et Poko. Ceux-ci sont composés de Taiwan, Palawan, Bornéo ouest, Vietnam oriental, et la partie occidentale de Sumatra. Un autre Océan s'est ouvert pratiquement au même moment dans le continent Est Asiatique : l'Océan de Nan qui, en s'ouvrant, a détaché un microcontinent appelé Shan-Thai. La fermeture de l'Océan de Nan, il y a environ 230 millions d'années a resolidarisé Shan-Thai et le continent Est Asiatique et la trace de cet événement est aujourd'hui enregistrée dans la suture (la cicatrice de l'Océan) de Nan-Uttaradit. La cause de l'ouverture de l'Océan de Nan peut soit être due à la subduction du Paléopacifique, soit aux fait que la subduction de la Paléotethys tirait le continent Est Asiatique par le phénomène du « slab-pull », soit aux deux. La subduction du Paléopacifique avait déjà crée de l'extension dans le continent Est Asiatique durant le Carbonifère Inférieur (il y a environ 340-350 millions d'années) en créant des bassins et du volcanisme, aujourd'hui enregistré en différents endroits du continent, dont la ceinture volcanique de Chiang Mai, étudiée ici. A la fin du Trias, la Paléotethys se refermait complètement, et le bloc Cimmérien de Sibumasu entrait en collision avec le continent Est Asiatique. Comme c'est souvent le cas avec les grands océans, il n'y a pas de suture proprement dite, avec des fragments de croûte océanique, pour témoigner de cet évènement. Celui-ci est visible grâce à la différence entre les sédiments du Carbonifère Supérieur et du Permieñ Inférieur de chaque domaine : dans le domaine Cimmérien ils sont de type glaciaire alors que dans le continent Est Asiatique ils témoignent d'un climat tropical. Les océans de Song Ma et Poko se sont aussi refermés au Trias, mais eux ont laissé des sutures visibles

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Messages à retenir: L'identification des anomalies pleurales et parenchymateuses liées à une exposition à l'amiante est essentielle pour la reconnaissance de maladie professionnelle, avec de lourdes conséquences économiques. Le scanner thoracique est l'outil le plus fiable de ce dépistage. La détection d'anomalies dans les régions basales et sous-pleurales doit conduire à la réalisation de coupes complémentaires en procubitus sur ces régions. Le diagnostic TDM des anomalies pleurales et parenchymateuses liées à l'amiante repose sur des critères diagnostiques et un vocabulaire précis. De nombreuses images pièges peuvent mimer des plaques ou une asbestose. Une bonne connaissance de l'anatomie de l'interface pleuro-parenchymateuse et des principaux diagnostics différentiels permet souvent de redresser le diagnostic. Résumé: Le scanner multicoupe est l'outil de référence pour le dépistage des pathologies pleurales et parenchymateuses liées à l'exposition à l'amiante. Le diagnostic de plaques pleurales repose sur une surélévation quadrangulaire et nette de l'interface pleuro-parenchymateuse, dans une ou des localisation(s) évocatrice(s). Les pièges responsables de fausses images de plaques sont nombreux : structures anatomiques et variantes de la normale, opacités postéro-basales liées à des troubles ventilatoires, sarcoïdose... Les plaques doivent être différenciées des autres anomalies pleurales bénignes pouvant être rencontrées dans ce contexte, mais non spécifiques d'une exposition à l'amiante : épaississements pleuraux diffus, fibrose de la plèvre viscérale, images en pieds de corneille. La reconnaissance d'une asbestose nécessite de s'affranchir de troubles ventilatoires liés à la déclivité ou à des contraintes mécaniques focales, chroniques, telles que des ostéophytes para-vertébraux. Les coupes en procubitus permettent d'affirmer l'existence d'une pathologie interstitielle débutante dans les régions sous-pleurales et basales. Des anomalies interstitielles isolées ne peuvent être attribuées à une asbestose, de même que des anomalies interstitielles non spécifiques, associées ou non à une pathologie diffuse fibrosante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Certaines dégénérescences rétiniennes sont engendrées par des mutations¦génétiques et conduisent à la perte des cellules photosensibles, les¦photorécepteurs (cônes et/ou bâtonnets), et donc à la cécité (Roy et al., 2010).¦La prévalence est de 1/3000 chez les Caucasiens. Les Rétinites Pigmentaires¦(RP) en composent la majorité des cas, suivent l'Amaurose congénitale de¦Leber et la maladie de Stargardt. Il n'y a pas une mutation type associés à une¦maladie mais diverses mutations peuvent aboutir à une dégénérescence de la¦rétine. Tout comme le reste du système nerveux central, la rétine lésée n'a pas¦les capacités de se régénérer. Un objectif du traitement est de ralentir la¦dégénérescence de la rétine dans le but de la stabiliser. La thérapie génique¦constitue actuellement la seule approche thérapeutique à même de traiter les¦dégénérescences rétiniennes d'origine génétique. Elle consiste à utiliser un virus¦modifié, qui n'a plus les capacités de se reproduire, appelé vecteur pour cibler¦certaines cellules afin d'ajouter un gène sain ou d'inhiber un gène malade. Les¦virus associés à l'adénovirus (AAV) et les Lentivirus (LV) sont les 2 principaux¦types de virus utilisés en thérapie génique en ophtalmologie. D'autres vecteurs¦existent, comme les adénovirus et le virus de l'anémie infectieuse équine. Des¦études de thérapie génique effectuées chez l'homme avec le vecteur AAV ont¦démontré une sensible amélioration des fonctions visuelles (acuité visuelle,¦champ visuel, pupillométrie et le déplacement dans un environnement avec une¦lumière tamisée) chez des patients atteints d'Amaurose congénitale de Leber¦(Maguire et al., Ali et al., Hauswirth et al., Bennett et al.). Le vecteur utilisé au¦cours de ce travail est un LV, qui a pour avantage de pouvoir transporter de¦grands gènes. Lorsque ce vecteur est pseudotypé avec une enveloppe VSVG, il¦transduit (transférer un gène qui sera fonctionnel dans la cellule cible) bien¦l'épithélium pigmentaire rétinien (nécessaire à la survie et à la fonction des¦photorécepteurs). Afin de changer le tropisme du vecteur, celui testé dans cette¦étude contient une enveloppe de type Mokola qui cible efficacement les cellules¦gliales du cerveau et donc probablement aussi les cellules de Müller de la rétine.¦Le but à court terme est de transformer génétiquement ces cellules pour leur¦faire sécréter des molécules favorisant la survie des photorécepteurs. Pour¦révéler la cellule ciblée par le vecteur, le gène qui sera exprimé dans les cellules¦transduites code pour la protéine fluorescente verte 2 (GFPII) et n'a pas de¦fonction thérapeutique. Après avoir produit le virus, deux types de souris ont été¦injectées : des souris dépourvues du gène de la rhodopsine appelées Rho -/- et¦des souris sauvages appelées C57BL6. Les souris Rho -/- ont été choisies en¦tant que modèle de dégénérescence rétinienne et les souris C57BL6 en tant que¦comparatif. Les souris Rho -/- et C57BL56 ont été injectées entre le 2ème et le¦3ème mois de vie et sacrifiées 7 jours après. Des coupes histologiques de la rétine¦ont permis de mesurer et comparer pour chaque oeil, les distances de¦transduction du RPE et de la neurorétine (= toute la rétine sauf le RPE). La¦distance sur laquelle le RPE est transduit détermine la taille de la bulle¦d'injection alors que la distance sur laquelle la neurorétine est transduite¦détermine la capacité du vecteur à diffuser dans la rétine. Les résultats montrent¦une expression plus importante de la GFPII dans le RPE que dans la neurorétine¦chez les souris Rho -/- et C57BL6. Les principales cellules transduites au¦niveau de la neurorétine sont, comme attendu, les cellules de Müller. Lorsque¦l'on compare les proportions de neurorétine et de RPE transduites, on constate¦qu'il y a globalement eu une meilleure transduction chez les souris Rho -/-¦que chez les souris C57BL6. Cela signifie que le vecteur est plus efficace pour¦transduire une rétine dégénérée qu'une rétine saine. Pour déterminer quels types¦de cellules exprimaient la GFPII, des anticorps spécifiques de certains types de¦cellules ont été utilisés. Ces résultats sont similaires à ceux d'autres études¦effectuées précédemment, dont celle de Calame et al. en 2011, et tendent à¦prouver que le vecteur lentiviral avec l'enveloppe Mokola et le promoteur EFs¦est idéal pour transduire avec un gène thérapeutique des cellules de Müller dans¦des rétines en dégénérescence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Psychiatry is now subject to two apparently contradictory movements. On the one hand, the need to respect the autonomy and rights of patients is reinforced and coercive measures are strictly defined and limited. On the other hand, security concerns in our society leads to prosecution of psychiatric disorders, especially when accompanied by behavioral problems or criminal acts. In these situations of compulsory treatment or care provided in prisons, a number of dilemmas emerge. The place of the healthcare professional in treatments ordered by the Justice and problems related to administrative detention are discussed in more detail.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The geodynamic forces acting in the Earth's interior manifest themselves in a variety of ways. Volcanoes are amongst the most impressive examples in this respect, but like with an iceberg, they only represent the tip of a more extensive system hidden underground. This system consists of a source region where melt forms and accumulates, feeder connections in which magma is transported towards the surface, and different reservoirs where it is stored before it eventually erupts to form a volcano. A magma represents a mixture of melt and crystals. The latter can be extracted from the source region, or form anywhere along the path towards their final crystallization place. They will retain information of the overall plumbing system. The host rocks of an intrusion, in contrast, provide information at the emplacement level. They record the effects of thermal and mechanical forces imposed by the magma. For a better understanding of the system, both parts - magmatic and metamorphic petrology - have to be integrated. I will demonstrate in my thesis that information from both is complementary. It is an iterative process, using constraints from one field to better constrain the other. Reading the history of the host rocks is not always straightforward. This is shown in chapter two, where a model for the formation of clustered garnets observed in the contact aureole is proposed. Fragments of garnets, older than the intrusive rocks are overgrown by garnet crystallizing due to the reheating during emplacement of the adjacent pluton. The formation of the clusters is therefore not a single event as generally assumed but the result of a two-stage process, namely the alteration of the old grains and the overgrowth and amalgamation of new garnet rims. This makes an important difference when applying petrological methods such as thermobarometry, geochronology or grain size distributions. The thermal conditions in the aureole are a strong function of the emplacement style of the pluton. therefore it is necessary to understand the pluton before drawing conclusions about its aureole. A study investigating the intrusive rocks by means of field, geochemical, geochronologi- cal and structural methods is presented in chapter three. This provided important information about the assembly of the intrusion, but also new insights on the nature of large, homogeneous plutons and the structure of the plumbing system in general. The incremental nature of the emplacement of the Western Adamello tonalité is documented, and the existence of an intermediate reservoir beneath homogeneous plutons is proposed. In chapter four it is demonstrated that information extracted from the host rock provides further constraints on the emplacement process of the intrusion. The temperatures obtain by combining field observations with phase petrology modeling are used together with thermal models to constrain the magmatic activity in the immediate intrusion. Instead of using the thermal models to control the petrology result, the inverse is done. The model parameters were changed until a match with the aureole temperatures was obtained. It is shown, that only a few combinations give a positive match and that temperature estimates from the aureole can constrain the frequency of ancient magmatic systems. In the fifth chapter, the Anisotropy of Magnetic Susceptibility of intrusive rocks is compared to 3D tomography. The obtained signal is a function of the shape and distribution of ferromagnetic grains, and is often used to infer flow directions of magma. It turns out that the signal is dominated by the shape of the magnetic crystals, and where they form tight clusters, also by their distribution. This is in good agreement with the predictions made in the theoretical and experimental literature. In the sixth chapter arguments for partial melting of host rock carbonates are presented. While at first very surprising, this is to be expected when considering the prior results from the intrusive study and experiments from the literature. Partial melting is documented by compelling microstructures, geochemical and structural data. The necessary conditions are far from extreme and this process might be more frequent than previously thought. The carbonate melt is highly mobile and can move along grain boundaries, infiltrating other rocks and ultimately alter the existing mineral assemblage. Finally, a mineralogical curiosity is presented in chapter seven. The mineral assemblage magne§site and calcite is in apparent equilibrium. It is well known that these two carbonates are not stable together in the system Ca0-Mg0-Fe0-C02. Indeed, magnesite and calcite should react to dolomite during metamorphism. The presented explanation for this '"forbidden" assemblage is, that a calcite melt infiltrated the magnesite bearing rock along grain boundaries and caused the peculiar microstructure. This is supported by isotopie disequilibrium between calcite and magnesite. A further implication of partially molten carbonates is, that the host rock drastically looses its strength so that its physical properties may be comparable to the ones of the intrusive rocks. This contrasting behavior of the host rock may ease the emplacement of the intrusion. We see that the circle closes and the iterative process of better constraining the emplacement could start again. - La Terre est en perpétuel mouvement et les forces tectoniques associées à ces mouvements se manifestent sous différentes formes. Les volcans en sont l'un des exemples les plus impressionnants, mais comme les icebergs, les laves émises en surfaces ne représentent que la pointe d'un vaste système caché dans les profondeurs. Ce système est constitué d'une région source, région où la roche source fond et produit le magma ; ce magma peut s'accumuler dans cette région source ou être transporté à travers différents conduits dans des réservoirs où le magma est stocké. Ce magma peut cristalliser in situ et produire des roches plutoniques ou alors être émis en surface. Un magma représente un mélange entre un liquide et des cristaux. Ces cristaux peuvent être extraits de la source ou se former tout au long du chemin jusqu'à l'endroit final de cristallisation. L'étude de ces cristaux peut ainsi donner des informations sur l'ensemble du système magmatique. Au contraire, les roches encaissantes fournissent des informations sur le niveau d'emplacement de l'intrusion. En effet ces roches enregistrent les effets thermiques et mécaniques imposés par le magma. Pour une meilleure compréhension du système, les deux parties, magmatique et métamorphique, doivent être intégrées. Cette thèse a pour but de montrer que les informations issues de l'étude des roches magmatiques et des roches encaissantes sont complémentaires. C'est un processus itératif qui utilise les contraintes d'un domaine pour améliorer la compréhension de l'autre. Comprendre l'histoire des roches encaissantes n'est pas toujours aisé. Ceci est démontré dans le chapitre deux, où un modèle de formation des grenats observés sous forme d'agrégats dans l'auréole de contact est proposé. Des fragments de grenats plus vieux que les roches intru- sives montrent une zone de surcroissance générée par l'apport thermique produit par la mise en place du pluton adjacent. La formation des agrégats de grenats n'est donc pas le résultat d'un seul événement, comme on le décrit habituellement, mais d'un processus en deux phases, soit l'altération de vieux grains engendrant une fracturation de ces grenats, puis la formation de zone de surcroissance autour de ces différents fragments expliquant la texture en agrégats observée. Cette interprétation en deux phases est importante, car elle engendre des différences notables lorsque l'on applique des méthodes pétrologiques comme la thermobarométrie, la géochronologie ou encore lorsque l'on étudie la distribution relative de la taille des grains. Les conditions thermales dans l'auréole de contact dépendent fortement du mode d'emplacement de l'intrusion et c'est pourquoi il est nécessaire de d'abord comprendre le pluton avant de faire des conclusions sur son auréole de contact. Une étude de terrain des roches intrusives ainsi qu'une étude géochimique, géochronologique et structurale est présente dans le troisième chapitre. Cette étude apporte des informations importantes sur la formation de l'intrusion mais également de nouvelles connaissances sur la nature de grands plutons homogènes et la structure de système magmatique en général. L'emplacement incrémental est mis en évidence et l'existence d'un réservoir intermédiaire en-dessous des plutons homogènes est proposé. Le quatrième chapitre de cette thèse illustre comment utiliser l'information extraite des roches encaissantes pour expliquer la mise en place de l'intrusion. Les températures obtenues par la combinaison des observations de terrain et l'assemblage métamorphique sont utilisées avec des modèles thermiques pour contraindre l'activité magmatique au contact directe de cette auréole. Au lieu d'utiliser le modèle thermique pour vérifier le résultat pétrologique, une approche inverse a été choisie. Les paramètres du modèle ont été changés jusqu'à ce qu'on obtienne une correspondance avec les températures observées dans l'auréole de contact. Ceci montre qu'il y a peu de combinaison qui peuvent expliquer les températures et qu'on peut contraindre la fréquence de l'activité magmatique d'un ancien système magmatique de cette manière. Dans le cinquième chapitre, les processus contrôlant l'anisotropie de la susceptibilité magnétique des roches intrusives sont expliqués à l'aide d'images de la distribution des minéraux dans les roches obtenues par tomographie 3D. Le signal associé à l'anisotropie de la susceptibilité magnétique est une fonction de la forme et de la distribution des grains ferromagnétiques. Ce signal est fréquemment utilisé pour déterminer la direction de mouvement d'un magma. En accord avec d'autres études de la littérature, les résultats montrent que le signal est dominé par la forme des cristaux magnétiques, ainsi que par la distribution des agglomérats de ces minéraux dans la roche. Dans le sixième chapitre, une étude associée à la fusion partielle de carbonates dans les roches encaissantes est présentée. Si la présence de liquides carbonatés dans les auréoles de contact a été proposée sur la base d'expériences de laboratoire, notre étude démontre clairement leur existence dans la nature. La fusion partielle est documentée par des microstructures caractéristiques pour la présence de liquides ainsi que par des données géochimiques et structurales. Les conditions nécessaires sont loin d'être extrêmes et ce processus pourrait être plus fréquent qu'attendu. Les liquides carbonatés sont très mobiles et peuvent circuler le long des limites de grain avant d'infiltrer d'autres roches en produisant une modification de leurs assemblages minéralogiques. Finalement, une curiosité minéralogique est présentée dans le chapitre sept. L'assemblage de minéraux de magnésite et de calcite en équilibre apparent est observé. Il est bien connu que ces deux carbonates ne sont pas stables ensemble dans le système CaO-MgO-FeO-CO.,. En effet, la magnésite et la calcite devraient réagir et produire de la dolomite pendant le métamorphisme. L'explication présentée pour cet assemblage à priori « interdit » est que un liquide carbonaté provenant des roches adjacentes infiltre cette roche et est responsable pour cette microstructure. Une autre implication associée à la présence de carbonates fondus est que la roche encaissante montre une diminution drastique de sa résistance et que les propriétés physiques de cette roche deviennent comparables à celles de la roche intrusive. Cette modification des propriétés rhéologiques des roches encaissantes peut faciliter la mise en place des roches intrusives. Ces différentes études démontrent bien le processus itératif utilisé et l'intérêt d'étudier aussi bien les roches intrusives que les roches encaissantes pour la compréhension des mécanismes de mise en place des magmas au sein de la croûte terrestre.