342 resultados para Produit intérieur brut
Resumo:
Comment dans notre travail thérapeutique, aborder le vécu douloureux de nos patients gravement traumatisés, sans s'y enfermer ni blesser une fois de plus la victime ? C'est avec cette préoccupation et face à bon nombre de nos patients qui se retrouvent enfermés dans un seul ressenti qui envahit tout, jusqu'à leur identité même, que nous avons eu l'idée de travailler avec le Mandala des émotions, fait de sables colorés. Nous présenterons cette technique, utilisée comme un objet flottant, au travers de deux vignettes cliniques de suivi individuel : l'une avec un enfant et la seconde avec un adulte. Nous exposerons comment cet outil permet la création d'un espace intersubjectif où thérapeutes et patients se rencontrent autour de l'exploration du vécu intérieur post-traumatique et de l'élaboration d'une renarration du récit de vie de la victime.
Resumo:
RESUME GENERAL Au cours de ces dernières années, le monoxyde d'azote (NO) produit par une famille d'enzymes, les NO synthases (NOS), est apparu comme un effecteur central dans la régulation du système cardiovasculaire et du métabolisme énergétique. Chez l'homme, un défaut de production du NO est associé à des maladies cardiovasculaires et métaboliques comme la résistance à l'insuline ou le diabète de type 2. Ces pathologies se retrouvent chez les souris invalidées pour la NO synthase endothéliale (eN0S-/-) qui présentent non seulement une hypertension mais également une résistance à l'insuline et une dyslipidémie (augmentation des triglycérides et des acides gras libres). Ces anomalies sont étroitement associées et impliquées dans le développement du diabète de type 2. Dans cette étude, nous avons essayé de déterminer à partir du modèle de souris eN0S-/-, l'influence de la eNOS et de son produit, le NO, sur la régulation du métabolisme lipidique intracellulaire. Ainsi, nous avons montré que cette enzyme et le NO régulent directement l'activité β-oxydative des mitochondries isolées du muscle squelettique, du muscle cardiaque et du tissu adipeux blanc. Par ailleurs, dans le muscle de ces souris, le contenu des mitochondries et l'expression des gènes impliqués dans leur biogénèse sont diminués, ce qui suggère que la eNOS et/ou le NO contrôlent également la synthèse de ces organelles. Les mitochondries, via la β-oxydation, sont impliquées dans la production d'énergie à partir des acides gras libres. Dans notre modèle animal, la diminution de la β-oxydation dans le muscle, s'accompagne d'une accumulation des triglycérides intramyocellulaires. Cette accumulation prédispose fortement au développement de la résistance à l'insuline. Les anomalies du métabolisme β-oxydatif favorisent donc probablement l'apparition de la dyslipidémie et le développement de la résistance à l'insuline observées chez les souris eN0S-/-. Cette hypothèse est soutenue par différentes études effectuées chez l'homme et l'animal qui suggèrent qu'une dysfonction mitochondriale peut être à l'origine de la résistance à l'insuline. Ces données récentes et les résultats de ce travail apportent un regard nouveau sur le rôle du NO dans le développement des maladies métaboliques que sont la résistance à l'insuline, le diabète de type 2 et l'obésité. Elles placent aux centres de ces mécanismes une organelle, la mitochondrie, située au carrefour des métabolismes glucidiques et lipidiques. SUMMARY Over the last years, nitric oxide (NO), synthesized by a family of enzymes, the NO synthases, has become a central regulator of the cardiovascular system and energy metabolism. In humans, defective NO production is found in cardiovascular and metabolic diseases such as insulin resistance or type 2 diabetes mellitus. These alterations are also found in knockout mice for the endothelial nitric oxide synthase (eN0S-/-), which are not only hypertensive but also display insulin resistance and dyslipidemia (with increased triglyceride and free fatty acid levels). These pathologic features are tightly linked and involved in the pathogenesis of type 2 DM. In this study, using eN0S-/- mice, we determined the role played by this enzyme and its product, NO, on intracellular lipid metabolism. We show that eNOS and NO directly regulate β-oxidation in mitochondria isolated from skeletal and cardiac muscle as well as white adipose tissue. Furthermore, in the skeletal muscle of these mice, the mitochondrial content and the expression of genes involved in mitochondrial biogenesis are decreased, suggesting that eNOS and/or NO also regulate the synthesis of this intracellular organelle. Mitochondria, through β-oxidation, play a role in energy production from free fatty acids. In our animal model, decreased β-oxidation in skeletal muscle is associated with accumulation of intramyocellular lipids. This increased lipid content plays an important role in the pathogenesis of insulin resistance. Defective β-oxidation, therefore, probably favours the development of insulin resistance and dyslipidemia as seen in these animals. This hypothesis is strengthened by studies in humans and animals indicating that mitochondrial dysfunction is associated with insulin resistance. These recent data and the results of this work provide evidence for a role of NO in the development of metabolic diseases such as insulin resistance or type diabetes mellitus. They put as a central player, an organelle, the mitochondria, which lies at the crossway of carbohydrate and lipid metabolism. RESUME DIDACTIQUE Le maintien des fonctions vitales et l'accomplissement d'une activité physique nécessitent, chez l'homme, un apport quotidien d'énergie. Cette énergie est présente, dans l'alimentation, principalement sous forme de graisses (lipides) ou de sucres. La production d'énergie s'effectue en majorité dans le muscle au niveau d'une organelle particulière, la mitochondrie. La régulation du métabolisme énergétique fait intervenir de nombreux facteurs de régulation dont l'un des plus connu est l'insuline. De nombreuses maladies comme le diabète de type 2, l'obésité ou le syndrome métabolique découlent de la dérégulation du métabolisme énergétique. Un mécanisme particulier, la résistance à l'insuline, qui se caractérise par un défaut d'action de l'insuline au niveau de ses tissus cibles (foie, muscle...) est souvent impliqué dans le développement de ces pathologies. L'étude de ces anomalies métaboliques nécessite l'utilisation de modèles, notamment animaux, qui ont la particularité de reproduire partiellement un état pathologique caractéristique de certaines maladies humaines. Dans ce travail, nous avons utilisé un modèle de souris dont la particularité est de ne pas exprimer une enzyme, la monoxyde d'azote (NO) synthase endothéliale (eNOS), responsable de la synthèse d'un gaz, le NO. Ces souris présentent une hypertension artérielle, des anomalies du métabolisme des lipides et une résistance à l'insuline. Or, de récents travaux effectués chez l'homme montrent que des individus insulino-résistants ou diabétiques de type 2 ont une diminution de la production de NO. Lors de nos investigations, nous avons démontré que la quantité et la capacité des mitochondries à utiliser les lipides comme substrat énergétique est diminuée dans les muscles des souris eN0S-/-. Par ailleurs, ces deux anomalies sont associées dans ce tissu à une accumulation des lipides. De façon très intéressante, ce phénomène est décrit dans de nombreuses études effectuées chez l'homme et l'animal comme favorisant le développement de la résistance à l'insuline. Les résultats de ce travail suggèrent donc que la eNOS et/ou le NO joue un rôle important dans l'activité et la synthèse des mitochondries. Le NO pourrait donc constituer une cible thérapeutique dans le traitement des maladies métaboliques.
Resumo:
Afin de pouvoir se défendre contre les insectes nuisibles, les plantes ont développé plusieurs stratégies leur permettant de maximiser leurs chances de survie et de reproduction. Parmi elles, les plantes sont souvent pourvues de barrières physiques telles que les poils urticants, les épines et la cuticule. En plus, les plantes sont capables de produire des protéines anti-digestives et des métabolites secondaires insecticides tels que la nicotine, les tannins ou les glucosinolates (GS). La mise en place de ces barrières physiques et chimiques comporte un coût énergétique au détriment de la croissance et de la reproduction. Par conséquent, en absence d'insectes, la plante investit la majeure partie de son énergie dans le développement et la croissance. A l'inverse, une blessure causée par un insecte provoquera une croissance ralentie, une augmentation de la densité de poils urticants ainsi que la synthèse de défenses chimiques. Au niveau moléculaire, cette défense inductible est régulée par l'hormone végétale acide jamsonique (AJ). En réponse à l'attaque d'un insecte, la plante produit cette hormone en grande quantité, ce qui se traduira par une forte expression de gènes de défense. Pendant ma thèse, j'ai essayé de découvrir quels étaient les facteurs de transcription (FT) responsables de l'expression des gènes de défense dans Arabidopsis thaliana. J'ai ainsi pu démontrer que des plantes mutées dans les FTs comme MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF13 et RRTF1 deviennent plus sensibles aux insects de l'espèce Spodoptera littoralis. Par la suite, j'ai également pu montrer que MYC2, MYC3 et MYC4 sont probablement la cible principale de la voie de signalisation du AJ et qu'ils sont nécessaires pour l'expression de la majorité des gènes de défense dont la plupart sont essentiels à la biosynthèse des GS. Une plante mutée simultanément dans ces trois protéines est par conséquent incapable de synthétiser des GS et devient hypersensible aux insectes. J'ai également pu démontrer que les GS sont uniquement efficaces contre les insectes généralistes tels S. littoralis et Heliothis virescens alors que les insectes spécialisés sur les Brassicaceae comme Pieris brassicae et Plutella xylostella se sont adaptés en développant des mécanismes de détoxification. - In response to herbivore insects, plants have evolved several defence strategies to maximize their survival and reproduction. For example, plants are often endowed with trichomes, spines and a thick cuticule. In addition, plants can produce anti-digestive proteins and toxic secondary metabolites like nicotine, tannins and glucosinolates (GS). These physical and chemical barriers have an energetic cost to the detriment of growth and reproduction. As a consequence, in absence of insects, plants allocate their energy to development and growth. On the contrary, an attack by herbivore insects will affect plant growth, increase trichome density and induce the production of anti-digestive proteins and secondary metabolites. At the molecular level, this inducible defence is regulated by the phytohormone jasmonic acid (JA). Thus, an attack by herbivores will be followed by a burst of JA that will induce the expression of defence genes. The aim of my thesis was to characterize which transcription factors (TF) regulate the expression of these defence genes in Arabidopsis thaliana. I could show that plants mutated in various TFs like MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF 13 and RRTFl were more susceptible to the herbivore Spodoptera littoralis. Furthermore, I could demonstrate that MYC2, MYC3 and MYC4 are probably the main target of the JA-signalling pathway and that they are necessary for the insect-mediated induction of most defence genes including genes involved in the biosynthesis of GS. A triple mutant myc2myc3myc4 is depleted of GS and consequently hypersensitive to insects. Moreover, I showed that GS are only efficient against generalist herbivores like S. littoralis and Heliothis virescens whereas specialized insects like Pieris brassicae and Plutella xylostella have evolved detoxification mechanisms against GS.
Resumo:
La présente thèse se propose d'étudier les fortifications connues dans le territoire d'Erétrie (île d'Eubée, Grèce), essentiellement aux époques classique et hellénistique (Ve-IIe siècles av. J.-C.). La plupart de ces constructions (forteresses de grand appareil, habitats fortifiés, enceintes de pierres sèches et tours) sont connues depuis le 19e siècle, mais ce travail constitue la première étude archéologique et historique d'ensemble qui leur est consacrée exclusivement. Bien que décrites depuis longtemps, les fortifications des campagnes grecques ont surtout été étudiées d'un point de vue architectural et historique. Cette approche a privilégié une interprétation militaire et stratégique, reliant les fortifications au sein de réseaux défensifs conçus à grande échelle et destinés à bloquer les accès et les frontières du territoire. Notre perspective est différente, puisqu'elle s'efforce de replacer chaque fortification dans la géographie antique en étudiant son interaction avec les plaines et les reliefs, les frontières, l'habitat, les voies de communication, les terres cultivables et la répartition de la population. Pour ce faire, nous avons établi une carte archéologique de l'Erétriade, conduit des prospections extensives autour des fortifications, ainsi que dans de nombreuses régions du territoire. Cette méthode permet d'aborder l'étude des fortifications rurales en adoptant des angles d'analyse différents : le premier, macro-géographique, met ainsi en valeur des caractéristiques générales, telles que la relation entre les fortifications et la capitale d'une part, les fortifications et les terres cultivables de l'autre ; au plan régional, ou micro-géographique, elle analyse la répartition des fortifications au sein de chaque district de l'Erétriade, voire des vallées ou des cantons, mettant en évidence le rôle local des ouvrages fortifiés. Au terme de cette recherche, il est apparu qu'une approche purement stratégique ou militaire ne permettait pas d'expliquer la répartition géographique des fortifications, puisque ces dernières se trouvent pour la plupart à l'intérieur du territoire et non à ses frontières. Elles ne sont pas non plus disposées de manière à pouvoir exercer une surveillance étroite sur les routes pénétrant dans la chôra ; aussi leur fonctionnement au sein d'un «réseau défensif frontalier ne peut pas être démontré. Dans l'Erétriade, la colonne vertébrale de la sécurité publique est formée par les habitats fortifiés, dèmes et kômai, complétée par l'existence de deux forteresses militaires ayant accueilli des garnisons. Placés toujours à bonne distance de la ville, puis à intervalles plus ou moins réguliers au sein du territoire, les habitats fortifiés jouent sur le plan régional le rôle de la ville : en cas d'invasion ou de danger, la population du dème ou des dèmes environnants pouvait y trouver refuge, mettant ainsi à l'abri récoltes, biens et animaux. L'apparition des fortifications territoriales correspond à l'extension maximale de l'occupation humaine, agricole et économique du territoire. Les communautés rurales qui en avaient la possibilité se dotèrent alors de fortifications, souvent sommaires, pour faire face à des menaces variées, mais surtout pour assurer leur propre sécurité et protéger un équilibre autarcique fragile. Il ne faut donc pas nécessairement attribuer la construction de fortifications à un événement historique précis, interprétation abusive courante dans l'étude des fortifications, en Grèce comme ailleurs. La fortification des habitats ruraux s'est réalisée de manière progressive, en réponse aux sentiments d'insécurité d'une population rurale toujours plus nombreuse. Faute de références littéraires et d'inscriptions, en particulier de décrets honorifiques, les forteresses et les habitats fortifiés de l'Erétriade constituent les derniers témoins de l'insécurité publique et des violences auxquelles fut confronté le territoire d'Erétrie aux époques classique et hellénistique.
Resumo:
Résumé: Depuis plusieurs années, le thème des réseaux sociaux est au centre de l'intérêt des études historiques. Est-il possible de formaliser l'analyse de réseaux sociaux spécifiques - parenté, clientèle, solidarités locales, etc. - afin d'en analyser l'influence sur des événements historiques et des individus précis ? L'étude présentée prend en considération les luttes souvent violentes entre radicaux et conservateurs dans le Val de Bagnes, en Valais (Suisse), entre 1839 et 1900. La comparaison entre les généalogies des familles de la vallée et les informations sur la vie politique et sociale nous permet de relever l'influence de la parenté dans l'organisation des factions politiques. Les réseaux de parenté sont toutefois ouverts et souples, permettant des adaptations aux évolutions de la situation politique, économique et sociale. L'affaire autour du faux-monnayeur italien Joseph S. Farinet, dans les années 1870, nous permet par exemple de suivre l'évolution des réseaux de solidarité, à la suite d'une crise politique, ainsi que l'émergence de nouvelles activités économiques, notamment le tourisme, avec les hôteliers, les aubergistes et les guides de montagne souvent liés au milieu radical. L'analyse permet également de nuancer l'influence des réseaux de patronage : les collaborations horizontales, à l'intérieur des classes populaires, semblent mieux expliquer les solidarités politiques. Abstract: For several years, historians have been closely concerned with the question of social networks. Is it possible to conceptualize specific networks - like kinship, patronage or local solidarities - and to analyze their influence on concrete individuals or historical events? This paper considers the violent struggles between a radical political faction and a conservative one in a Swiss alpine valley, the Val de Bagnes (Valais) between 1839 and 1900. It compares information about political and social conflicts in the valley with genealogies of local families. By this way the eminent influence of kinship ties on political organizations becomes visible. But kinship networks are open and very supple, allowing adaptations to new political and social configurations. The trials against the Italian smuggler and counterfeiter Joseph S. Farinet in the Seventies allow to describe the evolution of local cooperation networks as a consequence of a political crisis in the canton of Valais and of new economic activities. The paper stresses the active role of a emerging group of hotel- or inn-owners and mountain guides, often closely tied with the radical milieu. The analysis of social transactions raises critical questions about the role of patronage in political mobilization: horizontal cooperation and kinship ties between peasants, small cattle owners and artisans seem to explain political solidarities better than patronage structures.
Resumo:
Summary Skin, and more precisely the epidermis, plays a crucial role in our survival since it constitutes our first line of defense against our environment. A subtle equilibrium between proliferation and differentiation of keratinocytes, the main epidermal cell type, provides a continous self-renewal of the epidermis, maintaining the integrity of this protective barrier. It is now well established that pertubation of the normal balance between proliferation and differentiation can induce development of several diseases including cancer. The aim of my thesis was first to characterize new genes involved in the differentiation process of keratinocytes and the formation of the epidermis. We show that cornulin, encoded by the c1orf10 gene, is a new marker of epidermal differentiation, mainly expressed in the suprabasal layers of the epidermis. Structurally, cornulin belongs to the "fused genes" protein family and contains a functional calcium-binding domain as well as two repeated sequences of 60 amino acids, the function of which remain unknown. The second part of my work aimed to identify new proteins interacting with CYLD. When mutated, CYLD is responsible for cylindromatosis, a predisposition to benign tumors of skin appendages mainly located on the scalp. CYLD is implicated in the NF-κB signalling pathway. We have identified HBO1 and p30, two nuclear proteins, as potential CYLD partners. Since CYLD was described as a negative regulator of NF-icB-mediated transcription, we have tested the putative effect of HBO1 and p30 on the regulation of this signalling pathway. We have shown that only HBO1 is able to inhibit NF-κB-mediated transactivation. The mechanism of action of HBO1 is still under investigation but our results suggest that an unknown cofactor is involved in this process. Résumé La peau est cruciale à notre survie car elle est notre première ligne de défense contre notre environnement. L'épiderme qui forme cette barrière protectrice entre le corps et l'environnement extérieur est continuellement renouvelé suite aux agressions physiques, chimiques et biologiques répétées qu'il subit. Le but de ce renouvellement étant de garantir l'intégrité de cette barrière. Le keratinocyte est le principal type cellulaire trouvé dans l'épiderme. La formation d'une barrière active dépend essentiellement de la faculté des kératinocytes à proliférer et à se différencier. Il est aujourd'hui admis que tout déséquilibre entre l'activité de prolifération et de différenciation des kératinocytes est la cause du développement de plusieurs maladies, dont certains cancers. Le but de ce travail de thèse était, dans un premier temps d'identifier ou de caractériser de nouveaux gènes impliqués dans le processus de différenciation afin de mieux comprendre la formation de l'épiderme. Noús avons ainsi démontré que la cornulin, produit du gène c1orf10, est un nouveau marqueur de la différenciation épidermique, principalement exprimé dans les couches suprabasales de l'épiderme. D'un point de vue structural, nous avons montré que cette protéine appartient à la famille des « fused gene » et qu'elle possède un domaine de liaison au calcium qui est fonctionnel et deux séquences répétées de 60 acides aminés dont la fonction est encore inconnue. La seconde partie de cette thèse était dédiée à l'étude de la cylindromatose, une prédisposition génétique à la formation de tumeurs bénignes, principalement localisées sur la tête et due à des mutations du gène CYLD. Nous avons cherché de nouvelles protéines qui interagissent avec CYLD afin de mieux caractériser les voies de signalisation impliquées dans le développement de la maladie. Nous avons ainsi identifiés deux nouveaux partenaires potentiels de CYLD ; HBO1 et p30 CYLD ayant été décrit comme un régulateur négatif de la transcription médiée par NF-κB; nous avons testé l'implication de HBO1 et p30 au niveau de cette activité transcriptionnelle. Nous montrons que seul HBO1 est capable d'inhiber la transactivation d'un gène rapporteur régulé par NF-κB. Le mécanisme d'action de HBO1 n'est pas encore connu, néanmoins nos résultats suggèrent l'intervention d'un cofacteur qui reste à déterminer.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
RésuméEn agriculture d'énormes pertes sont causées par des champignons telluriques pathogènes tels que Thielaviopsis, Fusarium, Gaeumannomyces et Rhizoctonia ou encore l'oomycète Pythium. Certaines bactéries dites bénéfiques, comme Pseudomonas fluorescens, ont la capacité de protéger les plantes de ces pathogènes par la colonisation de leur racines, par la production de métabolites secondaires possédants des propriétés antifongiques et par l'induction des mécanismes de défenses de la plante colonisée. P. fluorescens CHAO, une bactérie biocontrôle isolée d'un champ de tabac à Payerne, a la faculté de produire un large spectre de métabolites antifongiques, en particulier le 2,4- diacétylphloroglucinol (DAPG), la pyolutéorine (PLT), le cyanure d'hydrogène (HCN), la pyrrolnitrine (PRN) ainsi que des chélateurs de fer.La plante, par sécrétion racinaire, produit des rhizodéposites, source de carbone et d'azote, qui profitent aux populations bactériennes vivant dans la rhizosphere. De plus, certains stresses biotiques et abiotiques modifient cette sécrétion racinaire, en terme quantitatif et qualitatif. De leur côté, les bactéries bénéfiques, améliorent, de façon direct et/ou indirect, la croissance de la plante hôte. De nombreux facteurs biotiques et abiotiques sont connus pour réguler la production de métabolites secondaires chez les bactéries. Des études récentes ont démontré l'importance de la communication entre la plante et les bactéries bénéfiques afin que s'établisse une interaction profitant à chacun des deux partis. Il est ainsi vraisemblable que les populations bactériennes associées aux racines soient capables d'intégrer ces signaux et d'adapter spécifiquement leur comportement en conséquence.La première partie de ce travail de thèse a été la mise au point d'outils basés sur la cytométrie permettant de mesurer l'activité antifongique de cellules bactériennes individuelles dans un environnent naturel, les racines des plantes. Nous avons démontré, grâce à un double marquage aux protéines autofluorescentes GFP et mCherry, que les niveaux d'expression des gènes impliqués dans la biosynthèse des substances antifongiques DAPG, PLT, PRN et HCN ne sont pas les mêmes dans des milieux de cultures liquides que sur les racines de céréales. Par exemple, l'expression de pltA (impliqué dans la biosynthèse du PLT) est quasiment abolie sur les racines de blé mais atteint un niveau relativement haut in vitro. De plus cette étude a mis en avant l'influence du génotype céréalien sur l'expression du gène phlA qui est impliqué dans la biosynthèse du DAPG.Une seconde étude a révélé la communication existant entre une céréale (orge) infectée par le pathogène tellurique Pythium ultimum et P. fluorescens CHAO. Un système de partage des racines nous a permis de séparer physiquement le pathogène et la bactérie bénéfique sur la plante. Cette méthode a donné la possibilité d'évaluer l'effet systémique, causé par l'attaque du pathogène, de la plante sur la bactérie biocontrôle. En effet, l'infection par le phytopathogène modifie la concentration de certains composés phénoliques dans les exsudats racinaires stimulant ainsi l'expression de phi A chez P.fluorescens CHAO.Une troisième partie de ce travail focalise sur l'effet des amibes qui sont des micro-prédateurs présents dans la rhizosphere. Leur présence diminue l'expression des gènes impliqués dans la biosynthèse du DAPG, PLT, PRN et HCN chez P.fluorescens CHAO, ceci en culture liquide et sur des racines d'orge. De plus, des molécules provenant du surnageant d'amibes, influencent l'expression des gènes requis pour la biosynthèse de ces antifongiques. Ces résultats illustrent que les amibes et les bactéries de la rhizosphere ont développé des stratégies pour se reconnaître et adapter leur comportement.La dernière section de ce travail est consacrée à l'acide indole-acétique (LA.A), une phytohormone connue pour son effet stimulateur sur phlA. Une étude moléculaire détaillée nous a démontré que cet effet de l'IAA est notamment modulé par une pompe à efflux (FusPl) et de son régulateur transcriptionnel (MarRl). De plus, les gènes fusPl et marRl sont régulés par d'autres composés phénoliques tels que le salicylate (un signal végétal) et l'acide fusarique (une phytotoxine du pathogène Fusarium).En résumé, ce travail de thèse illustre la complexité des interactions entre les eucaryotes et procaryotes de la rhizosphère. La reconnaissance mutuelle et l'instauration d'un dialogue moléculaire entre une plante hôte et ses bactéries bénéfiques associées? sont indispensables à la survie des deux protagonistes et semblent être hautement spécifiques.SummaryIn agriculture important crop losses result from the attack of soil-borne phytopathogenic fungi, including Thielaviopsis, Fusarium, Gaeumannomyces and Rhizoctonia, as well as from the oomycete Pythium. Certain beneficial microorganisms of the rhizosphere, in particular Pseudomonas fluorescens, have the ability to protect plants against phytopathogens by the intense colonisation of roots, by the production of antifungal exoproducts, and by induction of plant host defences. P. fluorescens strain CHAO, isolated from a tobacco field near Payerne, produces a large array of antifungal exoproducts, including 2,4-diacetylphloroglucinol (DAPG), pyoluteorin (PLT), hydrogen cyanide (HCN), pyrrolnitrin (PRN) and iron chelators. Plants produce rhizodeposites via root secretion and these represent a relevant source of carbon and nitrogen for rhizosphere microorganisms. Various biotic and abiotic stresses influence the quantity and the quality of released exudates. One the other hand, beneficial bacteria directly or indirectly promote plant growth. Biotic and abiotic factors regulate exoproduct production in biocontrol microorganisms. Recent studies have highlighted the importance of communication in establishing a fine-tuned mutualist interaction between plants and their associated beneficial bacteria. Bacteria may be able to integrate rhizosphere signals and adapt subsequently their behaviour.In a first part of the thesis, we developed a new method to monitor directly antifungal activity of individual bacterial cells in a natural environment, i.e. on roots of crop plants. We were able to demonstrate, via a dual-labelling system involving green and red fluorescent proteins (GFP, mCherry) and FACS-based flow cytometry, that expression levels of biosynthetic genes for the antifungal compounds DAPG, PLT, PRN, and HCN are highly different in liquid culture and on roots of cereals. For instance, expression of pltA (involved in PLT biosynthesis) was nearly abolished on wheat roots whereas it attained a relatively high level under in vitro conditions. In addition, we established the importance of the cereal genotype in the expression of phi A (involved in DAPG biosynthesis) in P. fluorescens CHAO.A second part of this work highlighted the systemic communication that exists between biocontrol pseudomonads and plants following attack by a root pathogen. A split-root system, allowing physical separation between the soil-borne oomycete pathogen Phytium ultimum and P. fluorescens CHAO on barley roots, was set up. Root infection by the pathogen triggered a modification of the concentration of certain phenolic root exudates in the healthy root part, resulting in an induction ofphlA expression in P. fluorescens CHAO.Amoebas are micro-predators of the rhizosphere that feed notably on bacteria. In the third part of the thesis, co-habitation of Acanthamoeba castellanii with P. fluorescens CHAO in culture media and on barley roots was found to significantly reduce bacterial expression of genes involved in the biosynthesis of DAPG, PLT, HCN and PRN. Interestingly, molecular cues present in supernatant of A. castelanii induced the expression of these antifungal genes. These findings illustrate the strategies of mutual recognition developed by amoeba and rhizosphere bacteria triggering responses that allow specific adaptations of their behaviour.The last section of the work focuses on indole-3-acetic acid (IAA), a phytohormone that stimulates the expression of phi A. A detailed molecular study revealed that the IAA-mediated effect on phi A is notably modulated by an efflux pump (FusPl) and its transcriptional regulator (MarRl). Remarkably, transcription of fusPl and marRl was strongly upregulated in presence of other phenolic compounds such as salicylate (a plant signal) and fusaric acid (a phytotoxin of the pathogenic fungus Fusarium).To sum up, this work illustrates the great complexity of interactions between eukaryotes and prokaryotes taking place in the rhizosphere niche. The mutual recognition and the establishment of a molecular cross-talk between the host plant and its associated beneficial bacteria are essential for the survival of the two partners and these interactions appear to be highly specific.
Resumo:
La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.
Resumo:
RÉSUMÉ GRAND PUBLIC La complexité des sociétés d'insectes (telles que les abeilles, les termites ou les fourmis) a depuis longtemps fasciné l'Homme. Depuis le débfit du XIXème siècle, de nombreux travaux observationnels, comportementaux et théoriques leur on été consacrés afin de mieux les décrire et comprendre. L'avènement de la biologie moléculaire à la fin du XXèrne siècle a offert de nouveaux outils scientifiques pour identifier et étudier les gènes et molécules impliqués dans le développement et le comportement des êtres vivants. Alors que la majorité de ces études s'est focalisée sur des organismes de laboratoire tel que la mouche ou les nématodes, l'utilisation de ces outils est restée marginale jusqu'à présent dans l'étude des sociétés d'insectes. Lors de ma thèse, j'ai développé des outils moléculaires permettant de déterminer le niveau d'activité de zo,ooo gènes chez la fourmi de feu, Solenopsis invicta, ainsi qu'une base de données et un portail en ligne regroupant les informations relatives à l'étude génétique des fourmis: Fourmidable. J'ai ensuite utilisé ces outils dans le cadre d'une étude comportementale chez la fourmis S. invicta. Dans les sociétés d'insectes, une hiérarchie peut déterminer le statut reproducteur des individus. Suite à la mort d'un dominant, les subordonnés entrent en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies de S. invicta contenant une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. A la mort de la reine mère, un grand nombre de reines vierges tentent de la remplacer en arrachant leurs ailes et en activant leurs organes reproducteurs plutôt que de partir en vol nuptial. Ces tentatives sont le plus souvent arrêtées par les ouvrières qui exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, j'ai étudié l'activité de gènes au sein des reines au début de ce processus. J'ai ainsi déterminé que des gènes impliqués dans communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile sont activês à ce moment là. La vitesse à laquelle les reines perdent leurs ailes ainsi que les niveaux d'expression de gènes sont ensuite liés à leur probabilité de survie. ABSTRACT : Honeybees, termites and ants occupy the "pinnacle of social evolution" with societies of a complexity that rivals our own. Humans have long been fascinated by social insects, but studying them has been mostly limited to observational and behavioral experiments. The advent of molecular biology first made it possible to investigate the molecular-genetic basis of development in model systems such as the fruit fly Drosophila melarcogaster or the roundworm Caenorhabditis elegans and subsequently their behavior. Molecular and genomic tools are now becoming available for the study of social insects as well. To permit genomic research on the fire ant, Solenopsis invicta, we developed a cDNA microarray that can simultaneously determine the expression levels of approximately 1oooo genes. These genes were assembled and bioinformatically annotated using custom pipelines. The obtained data formed the cornerstones for Fourmidable, a web portal centralizing sequence, gene annotation and gene expression data as well as laboratory protocols for research on ants. In many animals living in groups the reproductive status of individuals is determined by their social status. In species with social hierarchies, the death of dominant individuals typically upheaves the social hierarchy and provides an opportunity for subordinate individuals to improve their social status. Such a phenomenon occurs in the monogyne form of S. invicta, where colonies typically contain a single wingless reproductive queen, thousands of workers and hundreds of winged non-reproductive virgin queens. Upon the death of the mother queen, many virgin queens shed their wings and initiate reproductive development instead of departing on a mating flight. Workers progressively execute almost all of them over the following weeks. The workers base their collective decision on pheromonal cues associated with the onset of reproductive development of the virgin queens which occurs after orphaning. We used the aforementioned tools to determine that genes putatively involved in processes including olfactory signaling, reproductive development and Juvenile Hormone metabolism are differentially expressed at the onset of competition. Additionally, we found that queens that initiate reproductive development faster and, to a certain extent, shed their wings faster after orphaning are more likely to become replacement queens. These results provide candidate genes that are putatively linked to competition outcome. To determine the extent to which specific genes affect different aspects of life in ant colonies, functional tests such as gene activation and silencing will still be required. We conclude by discussing some of the challenges and opportunities for molecular-genetic research on ants. RÉSUMÉ Les sociétés d'abeilles, de termites et de fourmis sont d'une complexité proche de celle de la nôtre et ont depuis longtemps fasciné l'Homme. Cependant, leur étude était jusqu'à présent limitée aux observations et expériences comportementales. L'avènement de la biologie moléculaire a d'abord rendu possible l'étude moléculaire et génétique du développement d'organismes modèles tels que la mouche Drosophila melanogaster ou le nématode Caenorhabditis elegans, puis dans un second temps de leur comportement. De telles études deviennent désormais possibles pour les insectes sociaux. Nous avons développé une puce à ADN permettant de déterminer simultanément les niveaux d'expression de 1oooo gènes de la fourmi de feu, Solenopsís invicta. Ces gènes ont été séquencés puis assemblés et annotés à l'aide de pipelines que nous avons développés. En se basant sur les informations obtenues, nous avons créé un portail web, Fourmidable. Ce portail vise à centraliser toutes les informations de séquence, d'annotation et d'expression de gènes, ainsi que les protocoles de laboratoire utilisés pour la recherche sur les fourmis. Par la suite, nous avons utilisé les outils développés pour étudier un aspect particulier de S. invicta. Chez les animaux grégaires, une hiérarchie sociale peut déterminer le statut reproducteur des individus. Suite à la mort d'un individu dominant, les individus subordonnés peuvent entrer en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies monogynes de S. invicta, qui contiennent habituellement une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. Suite à la mort de la reine mère, dominante, un grand nombre de reines vierges, subordonnées, perdent leurs ailes et activent leurs organes reproducteurs au lieu de partir en vol nuptial. Au cours des semaines suivantes, les ouvrières exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, nous avons étudié l'expression de gènes au début de cette compétition. Nous avons identifié 297 gènes différemment exprimés, dont l'annotation indique qu'ils seraient impliqués dans des processus biologiques dont la communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile. Par la suite, nous avons déterminé que la vitesse à laquelle les reines perdent leurs ailes en début de compétition ainsi que les niveaux d'expression de gènes sont corrélés à la probabilité de survie des reines. Nous concluons en discutant des opportunités offertes par la recherche génétique sur les fourmis ainsi que les défis qu'elle devra surmonter.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.