275 resultados para Limiter


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several evidences in humans underscored the contribution of CD4 and CD8 T-cell responses in controlling viral and bacterial infections. However, CD4 and CD8 Τ cells have distinct and specific effector functions leading to a hierarchical importance in responding to different types of pathogens. In this context, the present work aimed to investigate distinct CD8 T-cell features potentially influencing T-cell efficacy against viral infection. To achieve this-objective, CD8 Τ cells derived from HIV-infected patients and healthy donors harbouring virus-specific immune responses or immunized with an HTV vaccine candidate were studied. In particular, we performed a comprehensive cross-sectional and longitudinal analysis to characterize the function, the phenotype and the functional avidity of HIV-specific CD8 Τ cells during acute (PHI) and chronic infection and, in particular, we investigated immunological parameters potentially associated with the functional avidity of HIV-specific CD8 Τ cells. In addition, we studied the expression pattern of co-inhibitory molecules and the influence of CD 160 on the functions of CD8 Τ cells in absence of chronic infections. From these analyses we observed that the functional avidity of HIV-specific CD8 T- cell responses was significantly lower in acute than in chronic infection, but was not different between chronic progressive and non-progressive patients. Functional avidity remained low after several years of antiretroviral therapy in PHI patients, but increased in patients experiencing a virus rebound following treatment interruption in association with a massive renewal of the global CD8 complementarity-determining region 3 of the TCR. The functional avidity was also directly associated to T-cell exhaustion. In individuals with no sign of HIV or Hepatitis A, Β or C virus infection, CD8 Τ cells expressed higher levels of co-inhibitory molecules than CD4 Τ cells and this was dependent on the stage of T-cell differentiation and activation. The expression of CD 160 impaired the proliferation capacity and IL-2 production of CD8 Τ cells and was reduced upon CD8 T-cell activation, entitling CD 160 as unique marker of CD8 T-cell exhaustion. The CD 160 blockade restored the proliferation capacity of virus-specific CD8 Τ cells providing a potential new target for immunotherapy. All together, these results expand our knowledge regarding the interplay between the immune system and the viruses. - De nombreuses études chez l'Homme ont mis en évidence la contribution des réponses cellulaires Τ CD4 et CD8 dans le contrôle des infections virales et bactériennes. En particulier, les lymphocytes Τ ont différentes fonctions effectrices spécifiques qui leur confèrent un rôle clé lors d'infections par différents pathogènes. Ce travail vise à étudier différentes caractéristiques des cellules Τ CD8 affectant l'efficacité des réponses cellulaires contre les virus. Pour atteindre cet objectif nous avons étudié les cellules Τ CD8 provenant de patients infectés par le VIH et de donneurs sains avec des réponses immunitaires naturelles ou vaccinales contre des virus. Nous avons effectué plusieurs analyses transversales et longitudinales des fonctions, du phénotype et de l'avidité fonctionnelle des lymphocytes Τ CD8 spécifiques au VIH au cours d'infections aiguës et chroniques; en particulier, nous avons étudié les paramètres immunologiques qui pourraient être associés à l'avidité fonctionnelle. De plus, nous avons investigué le profil d'expression des principales molécules co-inhibitrices et en particulier le rôle du CD 160 dans les fonctions des lymphocytes Τ CD8. Sur la base de ces analyses, nous avons constaté que l'avidité fonctionnelle des cellules Τ CD8 spécifiques au VIH était significativement plus faible lors infections aiguës que lors d'infections chroniques, mais n'était, par contre, pas différente entre les patients avec des infections chroniques progressives et non progressives. L'avidité fonctionnelle reste faible après plusieurs années de traitement antirétroviral, mais augmente chez les patients subissant un rebond viral, et donc exposés à des hautes virémies, suite à l'interruption du traitement. Cette augmentation d'avidité des lymphocytes Τ CD8, liée à un épuisement fonctionnel accru, était quantitativement directement associée à un renouvellement massif du TCR. Indépendamment de l'infection par le VIH, les cellules Τ CD8 expriment des niveaux plus élevés de molécules co-inhibitrices (PD-1, 2B4 et CD 160) par rapport aux cellules Τ CD4 et ceci dépend de leur stade de différenciation et d'activation. En particulier, CD 160 semble être un marqueur clé d'épuisement cellulaire des cellules Τ CD8, et donc une nouvelle cible potentielle pour l'immunothérapie, car a) son expression réduit la capacité proliférative et la production d'IL-2 b) CD 160 diminue suite à 1'activation et c) le blocage de CD 160 redonne la capacité proliférative aux cellules Τ CD8 spécifiques aux virus. - Le système immunitaire est un ensemble de cellules, tissus et organes indispensables pour limiter l'entrée des pathogènes à travers la peau et les muqueuses. Parmi les différentes cellules composant le système immunitaire, les cellules Τ CD4 et CD8 sont fondamentales pour le contrôle des infections virales et bactériennes. Les moyens pour combattre les différents pathogènes peuvent être cependant très variables. Les cellules Τ CD8, qui sont indispensables pour la lutte contre les virus, peuvent avoir différents niveaux de sensibilité; les cellules qui répondent à de faibles quantités d'antigène ont une forte sensibilité. Suite à une première infection virale, les cellules Τ CD8 ont une sensibilité plus faible que lors d'expositions répétées au même virus. En effet, la réexposition au pathogène induit une augmentation de sensibilité, grâce au recrutement et/ou à l'expansion de cellules Τ dotées d'une sensibilité plus élevée. Les cellules Τ CD8 avec une plus haute sensibilité semblent être caractérisées par une perte de fonctionnalité (épuisement fonctionnel associé à une haute expression de molécules dites inhibitrices). En absence d'infection, la fonction des molécules inhibitrices n'est pas encore clairement définie. Les cellules Τ CD8 montrent un niveau d'expression plus élevé de ces molécules par rapport aux cellules Τ CD4. Ceci dépend de l'état des cellules. Parmi ces molécules, le CD160 est associé à l'incapacité des cellules à proliférer et à produire de l'IL-2, une protéine importante pour la prolifération et la survie cellulaire. L'incapacité des cellules exprimant le CD 160 à proliférer en réponse à des virus peut être restaurée par le blocage fonctionnel du récepteur CD 160. Cette étude étoffe notre connaissance du rôle des cellules Τ CD8 ainsi que des conséquences induites par leur épuisement fonctionnel. Ces informations sont fondamentales pour le développement de nouvelles stratégies thérapeutiques et vaccinales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le prélèvement des ganglions sentinelles apparaît comme une technique séduisante pour l'évaluation ganglionnaire des cancers du col utérin de faible stade. La sélection d'une population à bas risque de métastase ganglionnaire, un entraînement minimal et le respect de quelques règles simples permettent de limiter le risque de faux négatif au minimum. La technique apporte des informations supplémentaires sur le plan anatomique en identifiant des ganglions situés en dehors des zones habituelles de curage, et sur le plan histologique avec la mise en évidence de cellules tumorales isolées et surtout de micrométastases dont la valeur pronostique est suspectée Sentinel node biopsy appears as a promising technique for the assessment of nodal disease in early cervical cancers. Selection of a population with a low risk of nodal metastasis, a minimal training, and simple rules allow a low false negative rate. Sentinel node biopsy provides supplementary information, such as anatomical information (nodes outside of routine lymphadenectomy areas) and histological information (isolated tumors cells and micrometastases).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction générale : D'après une étude réalisée en Suisse en 2004, les entreprises de famille représentent 88,14% des entreprises, dont 80,2% sont constitués en sociétés anonymes. Les chiffres parlent d'eux-mêmes : les sociétés anonymes de famille occupent une place considérable dans le paysage des entreprises suisses. Les sociétés anonymes de famille correspondent donc à une réalité pratique. Juridiquement, la notion de société de famille n'apparaît pas dans le Code des obligations ; les sociétés anonymes de famille revêtent la forme juridique de la société anonyme, qui représente l'entreprise commerciale la plus courante en pratique. Le Code des obligations, à ses art. 620 ss, se limite à donner un cadre général de réglementation, ce qui a notamment pour conséquence que la forme juridique de la société anonyme s'adapte à des entités très variées, dans toutes sortes de secteurs d'activité, que ce soient des petites et moyennes entreprises ou de grandes multinationales, des sociétés capitalistes et impersonnelles ou des sociétés purement privées. Selon la conception générale de la forme juridique de la société anonyme, celle-ci revêt en principe un caractère capitaliste. L'intérêt de l'actionnaire pour la société anonyme est normalement de nature financière. Le fait que la qualité d'actionnaire soit matérialisée dans un titre, l'action, implique tant une certaine liquidité de l'actionnariat qu'une dépersonnalisation des rapports entre les membres qui composent la société anonyme. A l'opposé, la famille repose sur des liens personnels particuliers, étroits, avec notamment des dimensions psychologiques, affectives, émotives. Au premier abord, société anonyme et famille semblent donc antinomiques. Cette dichotomie présente un intérêt dogmatique. Elle correspond en outre à l'un des principaux enjeux : comment tenir compte des intérêts d'une entité fortement personnalisée - la famille - dans une structure impersonnelle et de type capitaliste - la société anonyme ? Le fait que le Code des obligations se limite à donner un cadre général de réglementation prend alors ici toute son importance ; la marge de manoeuvre et la liberté d'aménagement que le législateur accorde aux sociétés anonymes r vont permettre - ou alors empêcher - d'adapter la forme juridique de la société anonyme aux besoins d'une entité personnalisée comme la famille. Cette liberté n'est donc pas sans limites et les membres de la famille devront peut-être aussi assumer les conséquences du choix de cette forme de société. Partant, le but de notre travail est d'étudier les raisons d'être, l'organisation et la pérennité des sociétés anonymes de famille, spécifiquement sous l'angle du maintien du caractère familial de la société. Nous nous concentrerons sur la détention du capital, mais aussi sur sa structure, son maintien et son optimisation ; nous aborderons ainsi notamment les questions relatives à la transmissibilité des actions. Au regard de l'ampleur du sujet, nous avons dû procéder à certains choix, parfois arbitraires, notamment en raison des implications presque infinies des règles avec d'autres domaines. Nous nous limiterons ainsi, dans la première partie, à exposer les notions de base employées dans la suite de notre travail et nous focaliserons sur l'élaboration des définitions d'entreprise, société et société anonyme de famille, prémisses non seulement essentielles sous l'angle théorique, mais aussi fondamentales pour nos développements ultérieurs. S'agissant ensuite de l'analyse des possibilités d'aménagement d'une société anonyme dans le cadre du maintien du caractère familial de la société, nous nous concentrerons sur les règles relatives à la société anonyme et étudierons les limites qu'elles imposent et la liberté qu'elles offrent aux actionnaires familiaux. Nous laisserons en revanche de côté les problématiques particulières de la protection des actionnaires minoritaires et des organes. Enfin, si nous traitons toutes les notions théoriques nécessaires à la compréhension de chaque thématique présentée, seules celles primordiales et déterminantes sous l'angle de la conservation de l'hégémonie familiale seront approfondies. Nous avons structuré notre étude en quatre titres. Dans un premier titre, nous développerons les notions et principes élémentaires de notre sujet. Nous rappellerons ainsi la définition et les particularités de la société anonyme en général, y compris les sources et les modifications législatives, et les conditions de la cotation en bourse. Au stade des notions introductives, nous devrons également définir la société anonyme de famille, en particulier en établissant les éléments de la définition. Qu'entend-on par famille ? Quels critères permettent de qualifier une société anonyme de « société anonyme de famille » ? La définition de la société anonyme de famille devra être à la fois suffisamment précise, afin que cette notion puisse être appréhendée de manière adéquate pour la suite de notre travail, et suffisamment large, pour qu'elle englobe toute la variété des sociétés anonymes de famille. Nous présenterons aussi les raisons du choix de la forme juridique de la société anonyme pour une société de famille. Nous terminerons nos développements introductifs par un exposé relatif à la notion d'action et à son transfert en sa qualité de papier-valeur, préalables nécessaires à nos développements sur la transmissibilité des actions. Nous mettrons ainsi en évidence les conditions de transfert des actions, en tenant compte de la tendance à la dématérialisation des titres. Une fois ces éléments mis en place, qui nous donneront une première idée de la structure du capital d'une société anonyme de famille, nous devrons préciser la manière dont le capital doit être structuré. Nous chercherons comment il peut être maintenu en mains de la famille et si d'autres moyens n'ayant pas directement trait au capital peuvent être mis en oeuvre. Ainsi, dans un deuxième titre, nous analyserons les dispositions statutaires relatives à la structure du capital et à son maintien en mains familiales, en particulier les restrictions au transfert des actions nominatives. Les dispositions statutaires constituent-elles un moyen adéquat pour maintenir le caractère familial de la société ? Quelles sont les conditions pour limiter le transfert des actions ? Le caractère familial de la société peut-il être utilisé afin de restreindre le transfert des actions ? Les solutions sont-elles différentes si les actions sont, en tout ou en partie, cotées en bourse ? Nous traiterons aussi, dans ce même titre, les modalités du droit de vote et déterminerons si des dispositions statutaires peuvent être aménagées afin de donner plus de voix aux actions des membres de la famille et ainsi d'optimiser la détention du capital. Nous examinerons, dans notre troisième titre, un acte qui a trait à la fois au droit des contrats et au droit de la société anonyme, la convention d'actionnaires. En quoi consistent ces contrats ? Quels engagements les actionnaires familiaux peuvent-ils et doivent-ils prendre ? Quelle est l'utilité de ces contrats dans les sociétés anonymes de famille ? Quelles en sont les limites ? Les clauses conventionnelles peuvent-elles être intégrées dans les statuts ? Comment combiner les différentes clauses de la convention entre elles ? Dans ce même titre, nous étudierons également la concrétisation et la mise en application des dispositions statutaires et des clauses conventionnelles, afin de déterminer si, combinées, elles constituent des moyens adéquats pour assurer la structure, le maintien et l'optimisation de la détention du capital. Enfin, dans le quatrième et dernier titre, qui est davantage conçu comme un excursus, nous nous éloignerons du domaine strict du droit des sociétés (et des contrats) pour envisager certains aspects matrimoniaux et d'ordre successoral. En effet, puisque la famille est à la base de la société, il convient de relever l'importance des règles matrimoniales et successorales pour les sociétés anonymes de famille et leur incidence sur la détention des actions et le maintien du caractère familial de la société. Nous examinerons en particulier comment ces instruments doivent être utilisés pour qu'ils n'annihilent pas les efforts entrepris pour conserver la société en mains familiales. Notre travail a pour but et pour innovation de présenter une analyse transversale aussi complète que possible du droit de la société anonyme et des instruments connexes en étudiant les moyens à disposition des actionnaires d'une société anonyme de type personnel, la société anonyme de famille. Il tentera ainsi d'apporter une approche théorique nouvelle de ces questions, de présenter certains aspects de manière pragmatique, d'analyser la mise en oeuvre des différents moyens étudiés et de discuter leur opportunité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : l'adolescence est une période de transition au cours de laquelle l'enfant développe les capacités physiques et cognitives qui lui permettent de s'intégrer au monde adulte et qui se caractérise notamment par une prise de risque, une grande impulsivité et une constante recherche de sensations. Bien que des déterminants sociaux et familiaux entrent en jeu dans ce domaine, il y a également une composante neurobiologique importante. Les avancées techniques dans le domaine de l'imagerie ont permis de mettre en évidence plusieurs changements structurels à l'adolescence tels qu'un remodelage de la matière grise avec une perte de synapses plus ou moins importante selon la région observée et une augmentation de la myélinisation. En outre, le développement cérébral n'est pas uniforme dans le temps. En effet, la maturation du cortex préfrontal est ultérieure au développement du système limbique. Cet asynchronisme pourrait expliquer l'impulsivité des adolescents (consécutive à l'immaturité du cortex préfrontal) et leur comportement de recherche de sensation et/ou de prise de risque (consécutif au développement précoce du noyau accumbens notamment). Ces régions font également partie intégrante du système de récompense et modulent la motivation pour des récompenses naturelles et non-­‐naturelles, comme l'alcool et d'autres drogues. L'émergence d'une consommation d'alcool excessive est justement préoccupante chez les adolescents. En 2007, l'étude ESPAD (The European School Survey Project On Alcohol and Other Drugs) menée auprès de jeunes de 15 à 16 ans relève que 41% des jeunes questionnées ont régulièrement bu jusqu'à l'ivresse dans les 12 mois précédant l'entretien. Les conséquences neuropsychologiques à long terme de ce comportement de « binge-­‐drinking » commencent à alarmer le corps médical, mais l'interrogation demeure sur les risques de ce type de comportement vis-­‐à-­‐vis du développement d'un alcoolisme chronique à l'âge adulte. Objectifs du travail : en s'appuyant sur une revue de la littérature, ce travail a pour objectif d'expliquer les comportements qui émergent à l'adolescence à la lumière des modifications neurobiologiques qui s'opèrent durant cette période critique. Au niveau expérimental, nous proposons d'évaluer la propension de rats juvéniles exposés précocement à de l'alcool à développer un comportement d'abus de consommation d'alcool à l'âge adulte en comparaison avec un groupe contrôle. Dans un deuxième temps nous souhaitons déterminer la propension des rats exposés précocement à de l'alcool à montrer une préférence pour l'alcool par rapport à la saccharine, puis par rapport à de l'eau en comparaison au groupe contrôle. Méthode : nous comparons deux groupes de rongeurs adolescents (âgés de 32 jours à 67 jours). Le groupe test (groupe E, n=8), qui est exposé par un accès ad libitum à une solution d'éthanol 10 % contenant de la saccharine 0.2%, ceci afin de limiter l'aspect gustatif aversif de l'éthanol. Et le groupe témoin (groupe S, n=8), qui est exposé par un accès ad libitum à une solution de saccharine 0.2%. Ce conditionnement se fait sur 13 semaines. Une fois atteinte l'âge adulte, les animaux sont ensuite entraînés à appuyer sur un levier afin de recevoir de l'éthanol (0,1 ml d'une solution à 10%). Nous nous proposons d'évaluer la quantité d'alcool ainsi consommée, puis la motivation des animaux pour obtenir de l'éthanol et enfin leur capacité de résistance à un choc électrique non douloureux mais aversif, lorsque celui-­‐ci est associé à l'éthanol. Enfin, nous évaluerons, via un paradigme de choix à deux leviers, la propension des animaux à choisir de consommer volontairement de l'éthanol quand ils ont le choix entre de l'éthanol 10% et une solution de saccharine à différentes concentrations, puis entre de l'éthanol 10% et de l'eau. Résultats : la phase de tests de comportements à risque d'abus ne permet pas de mettre en évidence une différence significative entre les deux groupes. La phase de test de choix montre une diminution significative du pourcentage d'appuis sur le levier associé à la saccharine avec la diminution de la concentration de saccharine pour les deux groupes. Le groupe S a un pourcentage d'appuis sur le levier associé à l'éthanol significativement plus important que les rats du groupe E et a tendance à préférer l'éthanol pour une concentration de saccharine plus grande que le groupe E. Le groupe S montre également une préférence significative pour l'éthanol quand il n'a plus que le choix avec l'eau alors que le groupe E ne montre pas de préférence. Conclusions : chez des rats élevés dans les mêmes conditons, la consommation précoce d'éthanol n'est pas un facteur de risque de comportements d'abus de consommation d'alcool à l'âge adulte. Cependant un phénomène dit de « sensiblisation croisée » entre le goût sucrée et l'éthanol a été soulevé au cours de cette étude permettant de se questionner sur l'impact d'une consommation intermittente de substances au goût sucré à l'adolescence sur la consommation d'alcool à l'âge adulte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : 6 décembre 1992: le peuple suisse rejette l'Accord sur l'Espace économique européen (EEE). Le Conseil fédéral décide alors de privilégier la voie bilatérale pour réglementer ses relations avec l'Union européenne (UE). Près de sept ans plus tard, le 21 juin 1999, un premier paquet de sept accords bilatéraux sont signés à Luxembourg. L'Accord sur la libre circulation des personnes (ALCP ou Accord) en constitue certainement « la partie la plus importante ». L'ALCP a pour objectif de garantir la libre circulation des travailleurs salariés, des travailleurs indépendants ainsi que de certaines catégories de non-actifs, et de faciliter la prestation de services sur le territoire des parties contractantes. Or la réalisation de ces objectifs dépend directement de la mise en oeuvre de l'interdiction de discrimination en raison de la nationalité. Au coeur même du principe de libre circulation, l'interdiction de discrimination en raison de la nationalité constitue, sans aucun doute, la clé de voûte de l'Accords. Partant de ce constat, il conviendra d'étudier dans un premier temps le principe de libre circulation (Partie I), puis de nous pencher dans un second temps sur l'interdiction de discrimination en raison de la nationalité (Partie II). La première partie de notre étude (consacrée à la libre circulation des personnes en vertu de l'ALCP) débutera par un survol des dispositions essentielles à l'appréhension d'un droit fondamental à la libre circulation, ainsi que par une présentation succincte du régime communautaire de libre circulation. Après avoir rappelé les étapes du cheminement ayant conduit à l'adoption de l'ALCP, et après avoir défini les différentes sources régissant la libre circulation entre la Suisse et les Etats membres de l'UE, nous analyserons ensuite l'ALCP lui-même, en procédant à la détermination de son champ d'application ainsi qu'à l'examen des principes généraux qui le régissent. Cet examen nous amènera alors à déterminer le rôle que devrait jouer la jurisprudence de la Cour de justice des Communautés européennes (CJCE) dans le cadre de l'Accord. Fort de cette analyse, nous conclurons cette première partie par une présentation du régime de libre circulation tel qu'institué par l'ALCP, sans oublier bien sûr d'évoquer, finalement, la portée du concept d'entrave et de la notion de citoyenneté européenne dans le cadre de ce régime. La seconde partie de notre étude (consacrée à l'interdiction de discrimination en raison de la nationalité selon l'ALCP) identifiera, à titre liminaire, les différentes dispositions de l'Accord visant à prohiber les discriminations en raison de la nationalité. Ces dispositions mises en lumière, nous détaillerons alors les étapes de l'examen permettant de relever la présence d'une discrimination en raison de la nationalité, en nous appuyant sur la jurisprudence de la Cour de justice et celle du Tribunal fédéral d'une part, et sur la doctrine développée en matière d'interdiction de discrimination d'autre part. Dans la foulée, nous pourrons ainsi présenter les différentes formes que peut revêtir une discrimination. Nous examinerons, en particulier, le régime prévu par la jurisprudence de la Cour de justice et celle du Tribunal fédéral en matière de discriminations à rebours présentant un élément transfrontalier. Suite de quoi nous serons en mesure - après examen des jurisprudences allemande et autrichienne relatives aux situations internes de discriminations à rebours - de procéder à une appréciation critique de la solution adoptée par le Tribunal fédéral en pareilles situations. A la suite de ces deux chapitres portant sur la notion et sur les formes de discriminations, il y aura lieu de définir le champ d'application matériel et personnel des différentes dispositions de l'Accord visant à interdire les discriminations en raison de la nationalité. Lors de la définition du champ d'application personnel en particulier, il conviendra, en premier lieu, d'identifier les personnes susceptibles d'invoquer ces différentes dispositions (les bénéficiaires). Cet examen débutera par l'identification des conditions générales communes à l'ensemble des dispositions étudiées. Il se poursuivra par l'analyse des conditions spécifiques de chaque norme, et se terminera par une présentation du régime particulier réservé aux membres de la famille et aux travailleurs détachés. En second lieu, il s'agira de déterminer les sujets de droit à l'encontre desquels ces dispositions sont opposables (les destinataires). Plus précisément, il s'agira d'examiner dans quelle mesure les particuliers, en sus des Etats, peuvent être destinataires des différentes obligations de l'ALCP en matière de libre circulation et d'interdiction de discrimination. Les champs d'application ayant été définis, il nous restera alors à examiner les différentes dispositions de l'Accord susceptibles de limiter la portée du principe de non-discrimination. Pour ce faire, nous analyserons en détail l'article 5 Annexe I-ALCP qui permet de limiter les droits consacrés par l'Accord pour des raisons d'ordre public, de sécurité publique ou de santé publique. Nous nous pencherons aussi sur les limitations liées à l'exercice de la puissance publique, consacrées par les articles 10, 16 et 22 al. 1 Annexe I-ALCP. Après un passage en revue des dernières dispositions de l'Accord prévoyant des limitations, nous examinerons ensuite dans quelle mesure certains principes non expressément prévus par l'Accord sont également susceptibles de justifier une différence de traitement en raison de la nationalité. Nous conclurons cette étude en analysant les implications juridiques d'une violation de l'interdiction de discrimination, ceci non seulement dans les relations liant l'Etat à un particulier, mais aussi dans celles liant deux particuliers entre eux. Dans le premier cas de figure nous verrons qu'il y a lieu de différencier l'analyse en fonction du type d'acte en question - les implications d'une violation n'étant pas les mêmes selon que l'on se trouve en présence d'une norme, d'une décision ou d'un contrat (de droit administratif ou de droit privé) présentant un caractère discriminatoire. Dans le second cas de figure, il s'agira cette fois-ci de distinguer les implications des conditions discriminatoires en fonction des différentes phases d'une relation contractuelle - aux stades de la conclusion d'un contrat, de son exécution et de sa résiliation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certains pathogènes tels que le virus de l'hépatite C ainsi que le virus de l'immunodéficience humaine sont capables de détourner les mécanismes de défense du système immunitaire adaptatif afin d'établir des infections chroniques chez l'homme. La souche clone-13 du virus de la chorioméningite lymphocytaire est utilisée comme modèle d'études d'infection virale chronique chez la souris. Les raisons qui expliqueraient la persistance de certains virus ne sont pas encore bien définies. Toutefois, il a été montré qu'une exposition prolongée à un environnement inflammatoire ainsi que la présence prolongée de l'antigène sont des facteurs qui vont déclencher un procédé de différentiation particulier des lymphocytes T CD8+. Ces cellules sur-expriment alors des récepteurs inhibiteurs tels que PD-1 tandis que leur capacité à produire des cytokines diminue. Ce procédé de différentiation est appelé « exhaustion » et serait à l'origine de la génération de réponses lymphocytaires non ou peu fonctionnelles entraînant de ce fait la persistance de l'infection. Néanmoins, il a également été démontré que ces lymphocytes maintiennent des fonctions effectrices et qu'ils permettent de limiter la réplication du virus. Afin d'étudier la fonction effectrice résiduelle de ces lymphocytes T, nous avons transféré des cellules provenant de souris infectées chroniquement dans des souris receveuses naïves qui ont à leur tour été infectées avec le virus. Grâce à ces expériences, nous avons démontré que les cellules transférées contiennent des cellules qui sont capables de i) re-proliférer, ii) de protéger les souris contre une infection virale, et de iii) survivre en l'absence d'antigène. Nous avons remarqué que les cellules stimulées de façon chronique maintiennent le même phénotype lorsqu'elles sont transférées dans des souris naïves soumises à une infection virale aiguë. Nous avons de ce fait conclu que les cellules stimulées chroniquement contiennent une sous-population de cellules qui comporte des attributs de cellules T mémoire. D'autre part, nous avons pu identifier le facteur de transcription Tcf-1 comme l'élément essential pour la génération des cellules T ressemblant à des cellules mémoires. D'autre part, nous avons étudié l'impact du niveau de stimulation via le récepteur des cellules T (TCR) sur le phénotype adopté par les lymphocytes T au cours d'une infection chronique. Dans ce but, nous avons généré des souches de virus recombinants qui expriment un épitope modifié de manière à réduire le niveau de stimulation via le TCR. D'autre part, nous avons utilisé un mélange de deux souches virales de manière à moduler spécifiquement la quantité d'un épitope tout en conservant la même charge virale. Nous avons montré que la quantité d'antigène avait plus d'influence sur le phénotype des lymphocytes T que la force d'interaction entre le complexe peptide-CMH et le TCR. De plus, l'apparition de ce phénotype ne semble pas avoir d'impact sur la prolifération des cellules en réponse à une infection primaire ou secondaire. Ainsi, nous proposons un modèle par lequel le procédé d'« exhaustion » des cellules T correspond à une différentiation cellulaire particulière qui est indépendante de la capacité de prolifération des cellules. De manière générale, ces découvertes apportent de nouvelles connaissances sur les sous-catégories de lymphocytes T CD8+ qui sont générés pendant une infection virale chronique. Nous pensons que la réponse effectrice du système immunitaire est maintenue pendant de longues périodes grâce à la présence de cellules par partagent certaines caractéristiques avec des cellules mémoires. L'étude approfondie de ces cellules peut avoir des implications importantes sur l'optimisation des stratégies utilisant l'immunothérapie pour combattre les infections chroniques et cancers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Cell therapy has emerged as a strategy for the treatment of various human diseases. Cells can be transplanted considering their morphological and functional properties to restore a tissue damage, as represented by blood transfusion, bone marrow or pancreatic islet cells transplantation. With the advent of the gene therapy, cells also were used as biological supports for the production of therapeutic molecules that can act either locally or at distance. This strategy represents the basis of ex vivo gene therapy characterized by the removal of cells from an organism, their genetic modification and their implantation into the same or another individual in a physiologically suitable location. The tissue or biological function damage dictates the type of cells chosen for implantation and the required function of the implanted cells. The general aim of this work was to develop an ex vivo gene therapy approach for the secretion of erythropoietin (Epo) in patients suffering from Epo-responsive anemia, thus extending to humans, studies previously performed with mouse cells transplanted in mice and rats. Considering the potential clinical application, allogeneic primary human cells were chosen for practical and safety reasons. In contrast to autologous cells, the use of allogeneic cells allows to characterize a cell lineage that can be further transplanted in many individuals. Furthermore allogeneic cells avoid the potential risk of zoonosis encountered with xenogeneic cells. Accordingly, the immune reaction against this allogeneic source was prevented by cell macro- encapsulation that prevents cell-to-cell contact with the host immune system and allows to easy retrieve the implanted device. The first step consisted in testing the survival of various human primary cells that were encapsulated and implanted for one month in the subcutaneous tissue of immunocompetent and naturally or therapeutically immunodepressed mice, assuming that xenogeneic applications constitute a stringent and representative screening before human transplantation. A fibroblast lineage from the foreskin of a young donor, DARC 3.1 cells, showed the highest mean survival score. We have then performed studies to optimize the manufacturing procedures of the encapsulation device for successful engraftment. The development of calcifications on the polyvinyl alcohol (PVA) matrix serving as a scaffold for enclosed cells into the hollow fiber devices was reported after one month in vivo. Various parameters, including matrix rinsing solutions, batches of PVA and cell lineages were assessed for their respective role in the development of the phenomenon. We observed that the calcifications could be totally prevented by using ultra-pure sterile water instead of phosphate buffer saline solution in the rinsing procedure of the PVA matrix. Moreover, a higher lactate dehydrogenase activity of the cells was found to decrease calcium depositions due to more acidic microenvironment, inhibiting the calcium precipitation. After the selection of the appropriate cell lineage and the optimization of encapsulation conditions, a retroviral-based approach was applied to DARC 3.1 fibroblasts for the transduction of the human Epo cDNA. Various modifications of the retroviral vector and the infection conditions were performed to obtain clinically relevant levels of human Epo. The insertion of a post-transcriptional regulatory element from the woodchuck hepatitis virus as well as of a Kozak consensus sequence led to a 7.5-fold increase in transgene expression. Human Epo production was further optimized by increasing the multiplicity of infection and by selecting high producer cells allowing to reach 200 IU hEpo/10E6 cells /day. These modified cells were encapsulated and implanted in vivo in the same conditions as previously described. All the mouse strains showed a sustained increase in their hematocrit and a high proportion of viable cells were observed after retrieval of the capsules. Finally, in the perspective of human application, a syngeneic model using encapsulated murine myoblasts transplanted in mice was realized to investigate the roles of both the host immune response and the cells metabolic requirements. Various loading densities and anti-inflammatory as well as immunosuppressive drugs were studied. The results showed that an immune process is responsible of cell death in capsules loaded at high cell density. A supporting matrix of PVA was shown to limit the cell density and to avoid early metabolic cell death, preventing therefore the immune reaction. This study has led to the development of encapsulated cells of human origin producing clinically relevant amounts of human EPO. This work resulted also to the optimization of cell encapsulation technical parameters allowing to begin a clinical application in end-stage renal failure patients. Résumé La thérapie cellulaire s'est imposée comme une stratégie de traitement potentiel pour diverses maladies. Si l'on considère leur morphologie et leur fonction, les cellules peuvent être transplantées dans le but de remplacer une perte tissulaire comme c'est le cas pour les transfusions sanguines ou les greffes de moelle osseuse ou de cellules pancréatiques. Avec le développement de la thérapie génique, les cellules sont également devenues des supports biologiques pour la production de molécules thérapeutiques. Cette stratégie représente le fondement de la thérapie génique ex vivo, caractérisée par le prélèvement de cellules d'un organisme, leur modification génétique et leur implantation dans le même individu ou dans un autre organisme. Le choix du type de cellule et la fonction qu'elle doit remplir pour un traitement spécifique dépend du tissu ou de la fonction biologique atteintes. Le but général de ce travail est de développer .une approche par thérapie génique ex vivo de sécrétion d'érythropoïétine (Epo) chez des patients souffrant d'anémie, prolongeant ainsi des travaux réalisés avec des cellules murines implantées chez des souris et des rats. Dans cette perpective, notre choix s'est porté sur des cellules humaines primaires allogéniques. En effet, contrairement aux cellules autologues, une caractérisation unique de cellules allogéniques peut déboucher sur de nombreuses applications. Par ailleurs, l'emploi de cellules allogéniques permet d'éviter les riques de zoonose que l'on peut rencontrer avec des cellules xénogéniques. Afin de protéger les cellules allogéniques soumises à une réaction immunitaire, leur confinement dans des macro-capsules cylindriques avant leur implantation permet d'éviter leur contact avec les cellules immunitaires de l'hôte, et de les retrouver sans difficulté en cas d'intolérance ou d'effet secondaire. Dans un premier temps, nous avons évalué la survie de différentes lignées cellulaires humaines primaires, une fois encapsulées et implantées dans le tissu sous-cutané de souris, soit immunocompétentes, soit immunodéprimées naturellement ou par l'intermédiaire d'un immunosuppresseur. Ce modèle in vivo correspond à des conditions xénogéniques et représente par conséquent un environnement de loin plus hostile pour les cellules qu'une transplantation allogénique. Une lignée fibroblastique issue du prépuce d'un jeune enfant, nommée DARC 3 .1, a montré une remarquable résistance avec un score de survie moyen le plus élevé parmi les lignées testées. Par la suite, nous nous sommes intéressés aux paramètres intervenant dans la réalisation du système d'implantation afin d'optimaliser les conditions pour une meilleure adaptation des cellules à ce nouvel environnement. En effet, en raison de l'apparition, après un mois in vivo, de calcifications au niveau de la matrice de polyvinyl alcohol (PVA) servant de support aux cellules encapsulées, différents paramètres ont été étudiés, tels que les procédures de fabrication, les lots de PVA ou encore les lignées cellulaires encapsulées, afin de mettre en évidence leur rôle respectif dans la survenue de ce processus. Nous avons montré que l'apparition des calcifications peut être totalement prévenue par l'utilisation d'eau pure au lieu de tampon phosphaté lors du rinçage des matrices de PVA. De plus, nous avons observe qu'un taux de lactate déshydrogénase cellulaire élevé était corrélé avec une diminution des dépôts de calcium au sein de la matrice en raison d'un micro-environnement plus acide inhibant la précipitation du calcium. Après sélection de la lignée cellulaire appropriée et de l'optimisation des conditions d'encapsulation, une modification génétique des fibroblastes DARC 3.1 a été réalisée par une approche rétrovirale, permettant l'insertion de l'ADN du gène de l'Epo dans le génome cellulaire. Diverses modifications, tant au niveau génétique qu'au niveau des conditions d'infection, ont été entreprises afin d'obtenir des taux de sécrétion d'Epo cliniquement appropriés. L'insertion dans la séquence d'ADN d'un élément de régulation post¬transcriptionnelle dérivé du virus de l'hépatite du rongeur (« woodchuck ») ainsi que d'une séquence consensus appelée « Kozak » ont abouti à une augmentation de sécrétion d'Epo 7.5 fois plus importante. De même, l'optimisation de la multiplicité d'infection et la sélection plus drastique des cellules hautement productrices ont permis finalement d'obtenir une sécrétion correspondant à 200 IU d'Epo/10E6 cells/jour. Ces cellules génétiquement modifiées ont été encapsulées et implantées in vivo dans les mêmes conditions que celles décrites plus haut. Toutes les souris transplantées ont montré une augmentation significative de leur hématocrite et une proportion importante de cellules présentait une survie conservée au moment de l'explantation des capsules. Finalement, dans la perspective d'une application humaine, un modèle syngénique a été proposé, basé sur l'implantation de myoblastes murins encapsulés dans des souris, afin d'investiguer les rôles respectifs de la réponse immunitaire du receveur et des besoins métaboliques cellulaires sur leur survie à long terme. Les cellules ont été encapsulées à différentes densités et les animaux transplantés se sont vus administrer des injections de molécules anti-inflammatoires ou immunosuppressives. Les résultats ont démontré qu'une réaction immunologique péri-capsulaire était à la base du rejet cellulaire dans le cas de capsules à haute densité cellulaire. Une matrice de PVA peut limiter cette densité et éviter une mort cellulaire précoce due à une insuffisance métabolique et par conséquent prévenir la réaction immunitaire. Ce travail a permis le développement de cellules encapsulées d'origine humaine sécrétant des taux d'Epo humaine adaptés à des traitements cliniques. De pair avec l'optimalisation des paramètres d'encapsulation, ces résultats ont abouti à l'initiation d'une application clinique destinée à des patients en insuffisance rénale terminale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evaluer l'efficacité d'une thérapie ne devrait pas se limiter à en étudier l'impact sur différentes dimensions pertinentes. En effet, la recherche en psychothérapie insiste sur l'importance de développer des manuels thérapeutiques, afin de décrire ce que les thérapeutes font et donc comprendre ce qui est efficace, ainsi que des protocoles d'adhérence à ces manuels, afin de pouvoir évaluer si les intervenants font effectivement ce qu'ils prétendent faire. Cet article présente le manuel thérapeutique de l'Intervention systémique brève (ISB), un modèle d'intervention en six séances, utilisé dans une consultation pour couples et familles au Département de psychiatrie du CHUV à Lausanne. Ce modèle fait l'objet d'une recherche visant à évaluer son efficacité à court et moyen termes, au moyen de questionnaires remplis par les patients, évaluant différents niveaux : 1) les symptômes individuels, 2) la satisfaction conjugale, 3) la qualité des relations parentales, 4) la qualité des relations coparentales et 5) les relations familiales. L'ISB est un modèle intégratif des principales écoles de thérapie familiale systémique. Pour élaborer le manuel de l'ISB, nous nous sommes basés sur certains principes généraux communs aux différentes approches systémiques. La difficulté d'élaborer un tel manuel thérapeutique intégratif systémique sera discutée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La dystrophie musculaire de Duchenne (DMD) est une myopathie progressive liée au chromosome X qui atteint environ un garçon sur 3500. Des troubles du sommeil (TDS) sont fréquemment rapportés par ces patients Les études effectuées à ce jour se sont essentiellement concentrées sur les troubles respiratoires liés au sommeil. Les TDS débutent toutefois fréquemment avant l'installation d'un trouble ventilatoire nocturne et de nombreux autres facteurs peuvent en être la cause. Objectif L'objectif de cette étude est d'évaluer la fréquence des TDS chez les garçons avec une DMD et d'en identifier les facteurs de risque. Méthode II s'agit d'une étude transversale effectuée par questionnaire postal adressé aux parents de tout garçon âgé de 4-18 ans avec une DMD, suivi dans deux centres tertiaires de réhabilitation pédiatrique (Lausanne et Dublin). Les TDS sont évalués à l'aide de la 'Sleep Disturbance Scale for Children' (SDSC), validée sur 1157 enfants sains. Elle permet d'obtenir un score total et des scores pour six facteurs représentant les TDS les plus fréquents (troubles de l'endormissement et du maintien du sommeil (TEMS), éveil nocturne-cauchemars, transition veille-sommeil, somnolence diurne excessive, troubles respiratoires associés au sommeil (TRS), hyperhidrose du sommeil). Un T- score supérieur à 70 (>2DS) est considéré comme pathologique. Les associations potentielles entre des scores pathologiques et des facteurs individuels (âge, mobilité diurne et nocturne, douleur), thérapeutiques (orthèses nocturnes, ventilation non-invasive, médication) et environnementaux (facteurs socio-familiaux) sont évaluées à l'aide d'analyses univariées (χ2) et de régressions logistiques ascendantes. Résultats Seize garçons sur 63, soit 25.4%, présentent un score total pathologique en comparaison au 3% attendus dans la population générale. Les TEMS (29.7%), les TRS (15.6%) et l'hyperhidrose du sommeil (14.3%) sont les TDS les plus prévalent. Le besoin d'être mobilisé la nuit par un tiers (OR=9.4; 95%CI: 2.2-40.7; p=0.003) et être l'enfant d'une famille monoparentale (OR=7.2; 95%CI: 1.5-35.1; p=0.015) sont des facteurs de risque indépendants pour un score total pathologique. Le besoin d'être mobilisé la nuit par un tiers (OR=18.0; 95%CI: 2.9¬110.6; p=0.002), le traitement par corticostéroïdes (OR=7.7; 95%CI: 1.4-44.0; p-0.021) et être l'enfant d'une famille monoparentale (OR=7.0; 95%CI: 1.3-38.4; p=0.025) sont des facteurs de risque indépendants pour un TEMS. Discussion Cette étude montre une prévalence élevée des TDS chez les garçons avec une DMD (25% contre 3% attendus dans la population générale). Le besoin d'être mobilisé la nuit par un tiers est identifié comme un facteur de risque important pour un score total pathologique et un TEMS. Il reflète vraisemblablement un degré d'atteinte motrice tel qu'il limite les mouvements spontanés et les adaptations posturales du sommeil, ayant pour conséquence une diminution importante de la qualité du sommeil. Les enfants vivant dans un foyer monoparental présentent plus fréquemment un score total pathologique et des TEMS, possiblement en lien avec un stress psychologique plus important dans ces familles. Le traitement par corticostéroïdes est identifié comme facteur de risque pour un TEMS. Une adaptation du schéma ou du dosage permet généralement de limiter cet effet secondaire. Si nécessaire, un traitement par Mélatonine peut être instauré. Aucune association n'a pu être mise en évidence entre les facteurs analysés et les TRS, possiblement en raison du petit nombre de garçons ayant rapporté de tels symptômes et du fait que certains symptômes d'hypoventilation nocturne ne sont pas évalués par la SDSC. Par ailleurs, la valeur prédictive de l'anamnèse, comme celle des fonctions pulmonaires diurnes, est connue pour être limitée, raison pour laquelle une oxy-capnométrie est effectuée de routine en dessous d'une capacité vitale forcée de 50%. Elle permet, si nécessaire, l'instauration précoce d'une ventilation non-invasive, limitant ainsi vraisemblablement l'impact de ('hypoventilation nocturne sur la qualité du sommeil dans notre population. Plusieurs limitations sont à évoquer. Le petit nombre de patients ne permet pas d'exclure d'autres associations potentielles. La nature transversale de l'étude augmente le risque de causalité inverse. Cette étude n'inclut pas de mesure quantitative du sommeil. Les questionnaires adressés aux parents ont toutefois pu être démontrés comme fiables hormis pour les TRS. Un biais de non-réponse ne peut pas être totalement exclu, bien que le taux de réponse soit élevé (86,5%) et qu'il n'y ait pas de différence significative entre les populations de répondeurs et non-répondeurs. Conclusion La prévalence des TDS est élevée chez les garçons avec une DMD et leurs causes sont multiples. Les facteurs de risques sont physiques (immobilité nocturne), pharmacologiques (corticothérapie) et environnementaux (famille monoparentale). Compte tenu de son impact sur la qualité de vie, l'évaluation du sommeil doit être systématique en consultation et ne pas se limiter aux seuls troubles ventilatoires nocturnes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEL'agriculture urbaine et périurbalne - nommée ci-après AU - est un thème fort de recherche transversale, au vu des nombreux enjeux économiques, sociaux et environnementaux. L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle locale, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée sans porter atteinte à la santé et à l'environnement.Une approche basée sur l'étude des processus géochimiques dans ie sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.L'évaluation des impacts de l'irrigation avec des eaux usées brutes et des eaux de nappe saumâtres sur la qualité des sols (chapitre 2) a montré que l'alcalinité et les teneurs en calcium élevées des eaux saumâtres induisent la précipitation de CaC03 dans l'horizon superficiel du sol. Na remplace consécutivement Ca sur le complexe argilo-humique du sol et les bicarbonates diminuent dans la solution du sol. Le carbone organique dissout (COD) augmente significativement dans la solution du sol et dans la nappe sous-jacente. Malgré l'alcalinité et les teneurs très élevées en calcium des eaux usées, il y a peu de précipitation de CaC03 dans l'horizon superficiel du sol et une faible augmentation du sodium échangeable ESP. La nitrification de l'ammonium des eaux usées (moy 190mg/L à Pikine) produit des protons, qui ne sont plus tamponnés par les bicarbonates exportés hors du profil. Il y a alors une nette baisse de pH des sols irrigués par des eaux usées non traitées. Les sols irrigués par des eaux usées et saumâtres stockent moins de C et Ν que les sols de référence.L'évaluation de l'influence de l'occupation des sols en zone périurbaine sur à la nappe phréatique peu profonde (chapitre 3) a permis de déterminer les traceurs représentatifs de l'occupation du sol, à savoir Br/CI, NO3/CI et δ180-Ν03 pour l'irrigation par des eaux usées, pH et δ15Ν-Ν03 pour l'irrigation par des eaux de nappe, et Rb+Cr et Κ pour les lixiviats de fosses septiques. Ce chapitre a mis en évidence des points importants de la dynamique de l'azote en zone périurbaine sous deux occupations du sol : (1) la dénitrification est un processus important dans l'agrosystème périurbain de Dakar en bas de dune, dans les gleysols où l'on trouve des conditions temporairement réduites et un substrat organique favorables aux microorganismes de la dénitrification. Les teneurs en nitrates sont presque nulles avec irrigation d'eau de nappe. (2) en bas de pente, mais avec irrigation quotidienne par les eaux usées, l'apport continu d'ammonium inhibe probablement la dénitrification, mais favorise la volatilisation. (3) la nitrification de l'ammonium dans la nappe lors de la lixiviation des fosses septiques se distingue de la nitrification de l'ammonium dans la zone non saturée dans la zone d'agriculture périurbaine par la composition isotopique de l'oxygène de l'eau. Une comparaison des flux d'azote entre l'agrosystème et les quartiers périurbains de Dakar (chapitre 4) ont révélé que ces derniers étaient du même ordre de grandeur par unité de surface, à savoir 2-4 tonnes Ν /ha/an.L'évaluation des flux de pesticides dans l'agrosystème et des risques induits pour les eaux souterraines (chapitre 5) a révélé un fiux total de pesticides de 60kg/ha/an, totalisant 15 matières actives. Seules deux de ces matières actives sont autorisées par le comité des pesticides sahélien. Les pesticides les plus utilisés par les producteurs sont l'organochloré dicofol, les organophosphorés methamidophos, dimethoate et fenithrotion ainsi que le cabamate methomyl. Les flux les plus importants sont de 9 à 7 kg/ha/an (methomyl, methamidophos, ethoprophos et dicofol). Les pesticides qui présentent un risque élevé de contamination des eaux souterraines et qui devraient être prioritaires pour un suivi analytique sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, une meilleure gestion de la fertilisation est nécessaire dans la zone d'AU de Dakar, afin de (1) réduire les pertes gazeuses qui contribuent à l'effet de serre, (2) de ralentir la minéralisation du carbone et de l'azote organiques pour créer un stock de C et Ν dans ces sols, (3) de limiter le lessivage dans la nappe et enfin, 4) d'augmenter l'efficacité d'utilisation de Ν par les plantes. Une optimisation de l'irrigation devrait limiter l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et les mares permanentes.ABSTRACTUrban and periurban agriculture (UA) is an important issue in southern countries, because of its key role in their social and economical development and its environmental concern. The goal of this study was to contribute to a better understanding of pollutant transfer and nutrient cycling at the local scale, in order to implement the necessary improvements to guarantee the sustainability of this practice.An approach based on geochemical processes occurring in the vadose zone from the surface down to the groundwater level was chosen, at the scale of cultivated plots and at the regional scale of Dakar periurban areas, to determine the influence of land use.The assessment of irrigation with untreated domestic wastewater and brackish water on soil quality (chapter 2) showed: (1) that the high alkalinity and calcium contents of brackish water induce CaC03 precipitation in the top layer of the soil and therefore a replacement of Ca by Na on the clay- humic complexes, strongly marked during the dry season. Dissolved organic carbon (DOC) increased significantly in the soil solution and in the underlying groundwater. (2) in spite of the similarly high alkalinity and Ca contents of waste water, there is only little CaC03 precipitation and a low increase of the percentage of exchangeable sodium (ESP) in the soil top layer. The nitrification of the ammonium of wastewater (mean 190 mg/L in Pikine) produces protons, which are not any more buffered by bicarbonates exported out of the soil profile, which leads to a net decline of soil pH. Both soils irrigated with untreated wastewater and brackish water store less of C and Ν than soils irrigated with non saline groundwater.The assessment of the impact of land use on the shallow groundwater (chapter 3) allowed determining representative tracers of the land use. Low Br/CI ratio, high NO3/CI ratio and low δ1βΟ- nitrate indicated the influence of wastewater; high pH and high 515N-nitrates indicated the influence of brackish water together with high amendments of organic fertilizers; high Rb+Cr and Κ indicated the influence of poor sanitation facilities in periurban districts (septic tank leakage). This chapter also pointed out the following facts about the nitrogen dynamics : (1) denitrification is a key-process in the Dakar UA agrosystem in the gleysols irrigated with groundwater. The underlying groundwater is almost nitrate free. (2) in the Gleysols irrigated with waste water, ammonium inhibits denitrification but facilitate ammoniac volatilization. A comparison of nitrogen balance between the UA agrosystem and the periurban districts of Dakar (chapter 4) revealed similar flows per surface unit, namely 2-4 tons Ν / ha / year.The evaluation of pesticides use in the UA agrosystem and the risk assessment for the groundwater (chapter 5) revealed a total flow of pesticides of 60kg / ha / year, totalizing 15 active substances. Only two of these are authorized by the Sahelian Pesticides Committee. The most used pesticides are dicofol (organochlorinated), methamidophos, dimethoate and fenithrotion (organophosphate) as well as methomyl. (carbamate). The most important flows vary between 9 to 7 kg / ha / year. Pesticides with a high risk of groundwater contamination - according to SIRIS and EPRIP 2 indicators - are: carbofuran, dimethoate, ethoprophos and methomyl. These substances should be established as a priority for an analytical follow-up in the different environmental compartments.In conclusion, a better management of the fertilization is necessary in the Dakar UA, (1) to reduce the gaseous losses which contribute to greenhouse emissions (2) to slow down the mineralization of the organic carbon and the nitrogen, in order to enhance the C and Ν stock in these soils, (3) to limit the nitrate leaching in the groundwater and finally, 4) to increase the N-use efficiency of plants. An optimization of the irrigation scheme should limit the secondary sodisation if coupled with an increase the stable organic matter of the soil. An integrated or biologic crop pest strategy is urgently needed to minimize risks with respect to ground and surface water (ponds used for fishing).RESUME LARGE PUBLICL'agriculture mondiale connaît actuellement une crise majeure, affectée par les changements climatiques, la sécurité alimentaire et les dégradations de l'environnement. Elle n'a plus le rôle unique de produire, mais devient un élément essentiel de la protection des ressources naturelles et du paysage. Les politiques agricoles basées sur les marchés mondiaux devront se réorienter vers une agriculture locale basée sur le développement durable.La production alimentaire située dans l'enceinte des villes, nommée agriculture urbaine ou périurbaine (AU ci-après) joue un rôle important dans le contexte actuel d'accroissement de la population et de la pauvreté urbaines. L'AU concerne en effet la majorité des mégapoies du monde, fait vivre plus de 200 millions de personnes dans les pays du Sud, fournit jusqu'à 80% de la demande urbaine en certains produits frais, fait barrière à l'extension urbaine et permet un recyclage de certains déchets urbains. L'AU a pour particularité d'être à cheval entre des politiques rurales et urbaines, d'où un délaissement ce cette activité au secteur informel. Ce qui a développé de nombreuses stratégies à risques, comme à Dakar, où les petits producteurs périurbains irriguent quotidiennement avec des eaux usées domestiques par manque d'accès à une eau de bonne qualité et pour raccourcir les cycles de production. L'extrême précarité foncière des acteurs de l'AU de Dakar les empêchent d'investir à long terme et induit des pratiques inadéquates d'irrigation, d'usage de pesticides et de fertilisation de ces sols sableux.L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle des parcelles cultivées par des eaux usées et des eaux saumâtres, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée et surtout maintenue sans porter atteinte à la santé et à l'environnement. Pour cela, une approche basée sur l'étude des processus géochimiques dans le sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.Les résultats principaux de cette étude ont montré que (1) il y a un processus de salinisation anthropique des sols (sodisation) lors d'irrigation avec des eaux de nappe saumâtres, un processus accentué en saison sèche et lors d'années à pluviométrie déficitaire. Bien que les eaux usées soient aussi salines que les eaux de nappe, la salinisation des sols irrigués' par des eaux usées est limitée par l'ammonium présent dans les eaux usées (moy 190mg NH4/L à Pikine) qui produit de l'acidité lors de la transformation en nitrates dans le sol (nitrification). (2) les sols irrigués par des eaux usées (EU) stockent moins de C et Ν que les sois de référence, ce qui montrent bien que l'azote des eaux usées n'est pas disponible pour les plantes, mais est lessivé dans la nappe (100 à 450 mg/L N03 sous irrigation par EU, alors que la limite de OMS est de 50mg/L). (3) l'utilisation des isotopes stables des nitrates et des éléments traces, notamment le bore et le brome, ont permis de distinguer l'influence de l'irrigation par des eaux usées, de l'irrigation par des eaux de nappe et des lixiviats de fosses septiques sur les propriétés de la nappe. (4) Le processus de la dénitrification (atténuation naturelle des concentrations en nitrates de la nappe par biotransformation en azote gazeux) est important dans les zones basses de l'agrosystème périurbain de Dakar, sous irrigation par eaux naturelles (ΝΟ3 < 50mg/L). Tandis que sous habitat sans assainissement adéquat, les nitrates atteignent 300 à 700 mg/L. (5) Le flux total de pesticides dans l'AU est énorme (60kg/ha/an) totalisant 15 pesticides, dont deux seulement sont autorisés. Les pesticides les plus utilisés sont des insecticides organophosphorés et organochlorés classés extrêmement dangereux à dangereux par l'OMS, appliqués à des doses de 2 à 9 kg/ha/an. Les pesticides qui ont montré un risque élevé de contamination des eaux souterraines avec les indicateurs SIRIS et EPRIP2 sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, nous recommandons la reconstitution d'un horizon superficiel des sols riche en matière organique stable et structuré par production locale de compost. Cette mesure réduira les pertes gazeuses contribuant à l'effet de serre, augmentera le stock de Ν dans ces sols, alors utilisable par les plantes et permettra de diminuer l'irrigation car la capacité de rétention de l'eau dans le sol sera accru, ce qui limitera le lessivage des nitrates dans la nappe et l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et lesmares permanentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.