998 resultados para Gestion des connaissances


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This article makes a revision of the most eminent contributions in Geography in relation to the forest study, starting with principal Spanish geographical journals, congress transactions and other bibliography about forest questions. A selection of the most eminent bibliography has been made paying special attention to three main subjects: forest and forest science history, forest and landscape description, and forest management

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thousands of chemical compounds enter the natural environment but many have unknown effects and consequences, in particular at low concentrations. This thesis work contributes to our understanding of pollution effects by using bacteria as test organisms. Bacteria are important for this question because some of them degrade and transform pollutants into less harmful compounds, but secondly because they themselves can be inhibited in their reproduction by exposure to toxic compounds. When inhibitory effects occur this may change the composition of the microbial com¬munity in the long run, leading to altered or diminished ecosystem services by those communities. As a result chemicals of anthropogenic origin may accumulate and per¬sist in the environment, and finally, affect higher organisms as well. In addition to acquiring basic understanding of pollutant effects at low concentrations on bacterial communities an applied goal of this thesis work was to develop bacteria-based tests to screen new organic chemicals for toxicity and biodégradation. In the first part of this work we developed a flow cytometry-based assay on SYT09 plus ethidium-bromide or propidium-iodide stained cells of Pseudomonas ûuorescens exposed or not to a variety of pollutants under oligotrophic growth conditions. Flow cytometry (FC) allows fast and accurate counting of bacterial cells under simul¬taneous assessment of their physiological state, in particular in combination with different fluorescent dyes. Here we employed FC and fluorescent dyes to monitor the effect that pollutants may exert on Pseudomonas ûuorescens SV3. First we designed an oligotrophic growth test, which enabled us to follow population growth at low densities (104 - 10 7 cells per ml) using 0.1 mM sodium acetate as carbon source. Cells in the oligotrophic milieu were then exposed or not to a variety of common pollutants, such as 2-chlorobiphenyl (2CBP), naphthalene (NAH), 4-chlorophenol (4CP), tetradecane (TD), mercury chloride (HgCl2) or benzene, in different dosages. Exposed culture samples were stained with SYT09 (green fluorescent dye binding nucleic acids, generally staining all cells) in combination with propidium iodide (PI) or ethidium bromide (EB), both dyes being membrane integrity indicators. We ob- served that most of the tested compounds decreased population growth in a dosage- dependent manner. SYT09/PI or SYT09/EB staining then revealed that chemical exposure led to arisal of subpopulations of live and injured or dead cells. By modeling population growth on the total cell numbers in population or only the subpopulation of live cells we inferred that even in stressed populations live cells multiply at rates no different to unexposed controls. The net decrease in population growth would thus be a consequence of more and more cells being not able to multiply at all, rather than all cells multiplying at slower rates. In addition, the proportion of injured cells correlated to the compound dosage. We concluded that the oligotrophic test may be useful to asses toxicity of unknown chemicals on a variety of model bacteria. Mul¬tiple tests can be run in parallel and effects are rapidly measured within a period of 8 hours. Interestingly, in the same exposure tests with P. fluorescens SV3 we observed that some chemicals which did not lead to a reduction of net population growth rates did cause measurable effects on live cells. This was mainly observed in cells within the live subpopulation as an increase of the EB fluorescence signal. We showed that SYT09/EB is a more useful combination of dyes than SYT09/PI because PI fluorescence tend to increase only when cells are effectively dead, but not so much in live cells (less then twofold). In contrast, EB geometric mean fluorescence in live cells increased up to eightfold after exposure to toxic compounds. All compounds even at the lowest concentration caused a measurable increase in EB geometric mean fluorescence especially after 2 h incubation time. This effect was found to be transient for cells exposed to 2CBP and 4CP, but chronic for cells incubated with TD and NAH (ultimately leading to cell death). In order to understand the mechanism underlying the observed effects we used known membrane or energy uncouplers. The pattern of EB signal increase in chemical-exposed populations resembled mostly that of EDTA, although EB fluorescence in EDTA-treated or pasteurized cells was even higher than after exposure to the four test chemicals. We conclude that the ability of cells to efflux EB under equilibrium conditions is an appropriate measure for the potential of a chemical to exert toxicity. Since most bacterial species possess efflux systems for EB that all require cellular energy, our test should be more widely relevant to infer toxicity effects of chemical exposure on the physiological status of the bacterial cell. To better understand the effect of toxicant exposure on efflux defense systems, we studied 2-hydroxybiphenyl toxicity to Pseudomonas azeiaica HBP1. We showed that 2-HBP exerts toxicity even to P. azelaica HBP1, but only at concentrations higher than 0.5 mM. Above this concentration transient loss of membrane polarization and integrity occurred, which we conclude from staining of growing cells with fluorescent dyes. Cells finally recover and resume growth on 2HBP. The high resistance of P. azelaica HBP1 to 2-HBP was found to be the result of an efficient MexABOprM- type efflux pump system counteracting passive influx of this compound into the membrane and cellular interior. Mutants with disrupted mexA, mexB and oprM genes did no longer grow on 2-HBP at concentrations above 100 μΜ, whereas below this concentration we found 2-HBP-concentration dependent decrease of growth rate. The MexAB-OprM system in P. azeiaica HBP1 is indeed an efflux pump for ethidium bromide as well. By introducing gfp reporter fusions responsive to intracellular 2- HBP concentrations into HBP1 wild-type or the mutants we demonstrated that 2HBP enters into the cells in a similar way. In contrast, the reporter system in the wild-type cells does not react to 2-HBP at an outside concentration of 2.4 μΜ, whereas in mutant cells it does. This suggests that wild-type cells pump 2-HBP to the outside very effectively preventing accumulation of 2-HBP. 2HBP metabolism, therefore, is not efficient enough to lower the intracellular concentration and prevent toxicity. We conclude that P. azelaica HBP1 resistance to 2-HBP is mainly due to an efficient efflux system and that 2HBP in high concentrations exerts narcotic effects on the bacterial membrane. In the part of this thesis, we investigated the possibilities of bacteria to degrade pollutants at low concentrations (1 mg per L and below). As test components we used 2-hydroxybiphenyl, antibiotics and a variety of fragrances, many of which are known to be difficult to biodegrade. By using accurate counting of low numbers of bacterial cells we could demonstrate that specific growth on these compounds is possible. We demonstrated the accuracy of FC counting at low cell numbers (down to 103 bacterial cells per ml). Then we tested whether bacterial population growth could be specifically monitored at the expense of low substrate concentrations, us¬ing P. azelaica HBP1. A perfect relationship was found between growth rate, yield and 2-HBP concentrations in the range of 0.1 up to 5 mg per L. Mixing P. azelaica within sludge, however, suggested that growth yields in a mixed community can be much lower than in pure culture, perhaps because of loss of metabolic intermediates. We then isolated new strains from activated sludge using 2-HBP or antibiotics (Nal, AMP, SMX) at low concentrations (0.1-1 mg per L) as sole carbon and energy sub¬strate and PAO microdishes. The purified strains were then examined for growth on their respective substrate, which interestingly, showed that all strains can not with¬stand higher than 1 or 10 mg per L concentrations of target substrate. Thus, bacteria must exist that contribute to compound degradation at low pollutant concentrations but are inhibited at higher concentrations. Finally we tested whether specific biomass growth (in number of cells) at the expense of pollutants can also be detected with communities as starting material. Hereto, we focused on a number of fragrance chemicals and measured community biomass increase by flow cytometry cell counting on two distinct starter communities: (i) diluted Lake Geneva water, and dilute activated sludge from a wastewater treatment plant. We observed that most of the test compounds indeed resulted in significant biomass increase in the starter community compared to a no-carbon added control, but activated sludge and lake Geneva water strongly differed (almost mutually ex¬clusive) in their capacity to degrade the test chemicals. In two cases for activated sludge the same type of microbial community developed upon compound exposure, as concluded from transcription fragment length polymorphism analysis on community purified and PCR amplified 16S rRNA gene fragments. To properly test compound biodegradability it is thus important to use starter communities of different origin. We conclude that FC counting can be a valuable tool to screen chemicals for their biodegradability and toxicity. - Des milliers de produits chimiques sont libérés dans l'environnement mais beaucoup ont des effets inconnus, en particulier à basses concentrations. Ce travail de thèse contribue à notre comprehension des effets de la pollution en utilisant des bacteries comme des organismes-tests. Les bacteries sont importantes pour etudier cette ques¬tion car certaines d'entre elles peuvent degrader ou transformer les polluants, mais également parce qu'elles-mmes peuvent tre inhibees dans leur reproduction après avoit ete exposees à ces composes toxiques. Quand des effets inhibiteurs ont lieu, la composition de la communauté microbienne peut tre changee à long terme, ce qui mène à une reduction du service d'ecosystème offert par ces communautés. En consequence, après leur liberation dans l'environnement, les produits chimiques d'origine anthropogenique peuvent soit s'y accumuler et per¬sister, exerant ainsi des effets encore inconnus sur les organismes vivants. En plus d'acquérir des connaissances de base sur les effets des polluants à basses concentra¬tions sur les communautés microbiennes, un but applique de cette thèse était de développer des tests bases sur les bacteries afin d'identifier de nouveau composes pour leur toxicité ou leur biodégradation. Dans la première partie de ce travail, nous avons developpe un test base sur la cytometrie de flux (FC) sur des cellules de Pseudomonas fluorescens colorees par du bromure d'ethidium ou de l'iodure de propidium et exposees ou non à une palette de polluants sous des conditions de croissance oligotrophique. La cytometrie de flux est une technique qui connaît de nombreuses applications dans la microbiologie environ¬nementale. Cela est principalement du au fait qu'elle permet un comptage rapide et precis ainsi que l'évaluation de l'état physiologique, en particulier lorsqu'elle est combinée h des colorations fluorescentes. Ici, nous avons utilise la technique FC et des colorants fluorescents afin de mesurer l'effet que peuvent exercer certains pollu¬ants sur Pseudomonas ûuorescens SV3 . D'abord nous avons conu des tests oligo- trophiques qui nous permettent de suivre la croissance complète de cellules en culture h des densites faibles (104 -10 7 cellules par ml), sur de l'acetate de sodium à 0.1 mM, en presence ou absence de produits chimiques (2-chlorobiphenyl (2CBP), naphthalène (NAH), 4-chlorophenol (4CP), tetradecane (TD), chlorure de mercure(II) (HgCl2)) à différentes concentrations. Afin de montrer le devenir des bacteries tant au niveau de la cellule individuelle que celui de la population globale, après exposition à des series de composes chimiques, nous avons compte les cellules colorees avec du SYT09 (col¬orant fluorescent vert des acides nucléiques pour la discrimination des cellules par rapport au bruit de fond) en combinaison avec l'iodure de propidium (PI) ou le bromure d'ethidium (EB), indicateurs de l'intégrité de la membrane cellulaire avec FC. Nous avons observe que de nombreux composes testes avaient un effet sur la croissance bacterienne, resultant en une baisse du taux de reproduction de la pop¬ulation. En outre, la double coloration que nous avons utilisee dans cette etude SYT09/PI ou SYT09/EB a montre que les produits chimiques testes induisaient une reponse heterogène des cellules dans la population, divisant celle-ci en sous- populations "saine", "endommagee" ou "morte". Les nombres de cellules à partir du comptage et de la proportion de celles "saines" et "endommagees/mortes" ont ensuite ete utilises pour modeliser la croissance de P. ûuorescens SV3 exposee aux produits chimiques. La reduction nette dans la croissance de population est une consequence du fait que de plus en plus de cellules sont incapables de se reproduire, plutt que du fait d'une croissance plus lente de l'ensemble de la population. De plus, la proportion de cellules endommagees est correllee au dosage du compose chimique. Les résultats obtenus nous ont permis de conclure que le test oligotrophique que nous avons developpe peut tre utilise pour l'évaluation de la toxicité de produits chimiques sur différents modèles bacteriens. Des tests multiples peuvent tre lances en parallèle et les effets sont mesures en l'espace de huit heures. Par ailleurs, nous en déduisons que les produits chimiques exercént un effet sur la croissance des cellules de P. ûuorescens SV3, qui est heterogène parmi les cellules dans la population et depend du produit chimique. Il est intéressant de noter que dans les mmes tests d'exposition avec P. ûuorescens SV3, nous avons observe que certains composes qui n'ont pas conduit à une reduction du taux de la croissance nette de la population, ont cause des effets mesurables sur les cellule saines. Ceci a ete essentiellement observe dans la portion "saine" des cellules en tant qu'augmentation du signal de la fluorescence de 1ΈΒ. D'abord nous avons montre que SYT09/EB était une com¬binaison de colorants plus utile que celle de SYT09/PI parce que la fluorescence du PI a tendance à augmenter uniquement lorsque les cellules sont effectivement mortes, et non pas dans les cellules saines (moins de deux fois plus). Par opposi¬tion, la fluorescence moyenne de l'EB dans les cellules saines augmente jusqu'à huit fois plus après exposition aux composes toxiques. Tous les composes, mme aux plus basses concentrations, induisent une augmentation mesurable de la fluorescence moy¬enne de 1ΈΒ, plus particulièrement après deux heures d'incubation. Cet effet s'est revele tre transitoire pour les cellules exposees aux 2CNP et 4CP, mais est chro¬nique pour les cellules incubees avec le TD et le NAH (entranant la mort cellulaire). Afin de comprendre les mécanismes qui sous-tendent les effets observes, nous avons utilise des decoupleurs d'energie ou de membrane. L'augmentation du signal EB dans les populations causee par des produits chimiques ressemblait à celle exerce par le chelateur des ions divalents EDTA. Cependant, les intensités du signal EB des cellules exposees aux produits chimiques testees n'ont jamais atteint les valeurs des cellules traitees avec l'EDTA ou pasteurises. Nous en concluons que le test oli- gotrophique utilisant la coloration (SYT09/)EB des cellules exposees ou non à un produit chimique est utile afin d'evaluer l'effet toxique exerce par les polluants sur la physiologie bacterienne. Afin de mieux comprendre la reaction d'un système de defense par pompe à efflux après exposition à une toxine, nous avons étudié la toxicité du 2-hydroxybiphenyl (2-HBP) sur Pseudomonas azeiaica HBP1. Nous avons montre que le 2-HBP exerce une toxicité mme sur HBP1, mais uniquement à des concentrations supérieures à 0.5 mM. Au-dessus de cette concentration, des pertes transitoires d'intégrité et de polarization membranaire ont lieu, comme cela nous a ete montre par coloration des cellules en croissance. Les cellules sont finalement capables de se rétablir et de reprendre leur croissance sur 2-HBP. La forte resistance de P. azeiaica HBP1 h 2-HBP physiologie bacterienne s'est revele tre le résultat d'un système de pompe h efflux de type MexABOprM qui contre-balance l'influx passif de ce compose h travers la membrane. Nous avons montre, en construisant des mutants avec des insertions dans les gènes mexA, mexB and oprM et des fusions avec le gène rapporteur gfp, que l'altération de n'importe quelle partie du système d'efflux conduisait à accroître l'accumulation de 2-HBP dans la cellule, en comparaison avec la souche sauvage HBP1, provoquant une diminution de la resistance au 2-HBP ainsi qu'une baisse du taux de reproduction des cellules. Des systèmes d'efflux similaires sont répandus chez de nombreuses espèces bactériennes. Ils seraient responsables de la resistance aux produits chimiques tels que les colorants fluorescents (bromure d'ethidium) et des antibiotiques. Nous concluons que la resistance de P. azelaica HBP1 à 2-HBP est principalement due à un système d'efflux efficace et que 2-HBP, à des concentrations elevees, exerce un effet deletère sur la membrane bacterienne. En se basant sur le comptage des cellules avec la FC, nous avons developpe ensuite une methode pour evaluer la biodegradabilite de polluants tels que le 2-HBP ainsi que les antibiotiques (acide nalidixique (Nal), ampicilline (AMP) ou sulfamethoxazole (SMX)) à de faibles concentrations lmg par L et moins), par le suivi de la croissance spécifique sur le compose de cultures microbiennes pures et mixtes. En utilisant un comptage precis de faibles quantités de cellules nous avons pu demontrer que la croissance spécifique sur ces composes est possible. Nous avons pu illustrer la precision du comptage par cytometrie de flux à faible quantité de cellules (jusqu'à 10 3 cellules par ml). Ensuite, nous avons teste s'il était possible de suivre dynamiquement la croissance de la population de cellules sur faibles concentrations de substrats, en utilisant P. azelaica HBP1. Une relation parfaite a ete trouvee entre le taux de croissance, le rendement et les concentrations de 2-HBP (entre 0.1 et 5 mg par L). En mélangeant HBP1 à de la boue active, nous avons pu montrer que le rendement en communauté mixtes pouvait tre bien inférieur qu'en culture pure. Ceci étant peut tre le résultat d'une perte d'intermédiaires métaboliques. Nous avons ensuite isole de nouvelles souches à partir de la boue active en utilisant le 2-HBP ou des antibiotiques (Nal, AMP, SMX) h basses concentrations (0.1-1 mg par L) comme seules sources de carbone et d'energie. En combinaison avec ceci, nous avons également utilise des microplaques PAO. Les souches purifiees ont ensuite ete examinees pour leurs croissances sur leurs substrats respectifs. De faon intéressante, toutes ces souches ont montre qu'elles ne pouvaient pas survivre à des concentrations de substrats supérieures à 1 ou 10 mg par L. Ainsi, il existe des bacteries qui contribuent à la degradation de composes à basses concentrations de polluant mais sont inhibes lorsque ces concentrations deviennent plus hautes. Finalement, nous avons cherche à savoir s'il est possible de detecter une croissance spécifique à une biomasse au depend d'un polluant, en partant d'une communauté microbienne. Ainsi, nous nous sommes concentre sur certains composes et avons mesure l'augmentation de la biomasse d'une communauté grce à la cytometrie de flux. Nous avons compte deux communautés de depart distinctes: (i) une dilution d'eau du Lac Léman, et une dilution de boue active d'une station d'épuration. Nous avons observe que la plupart des composes testes ont entrane une augmentation de la biomasse de depart par rapport au control sans addition de source de carbone. Néanmoins, les échantillons du lac Léman et de la station d'épuration différaient largement (s'excluant mutuellement l'un l'autre) dans leur capacité à degrader les composes chimiques. Dans deux cas provenant de la station d'épuration, le mme type de communauté microbienne s'est developpe après exposition aux composes, comme l'a démontré l'analyse TRFLP sur les fragments d'ARN 16S purifie de la communauté et amplifie par PCR. Afin de tester correctement la biodegradabilite d'un compose, il est donc important d'utiliser des communautés de depart de différentes origines Nous en concluons que le comptage par cytometrie de flux peut tre un outil de grande utilité pour mettre en valeur la biodegradabillite et la toxicité des composes chimiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Persistent infection induces an adaptive immune response that is mediated by T and B lymphocytes. Upon triggering with an antigen, these cells become activated and turn into fast expanding cells able to efficiently defend the host. Lymphocyte activation is controlled by a complex composed of CARMA1, BCL10 and MALT1 which regulates the NF-KB signaling pathway upon antigen triggering. Abnormally high expression or activity of either one of these three proteins can favor the development of lymphomas, while genetic defects in the pathway are associated with immunodeficiency. MALT1 was identified as a paracaspase sharing homology with other cysteine proteases, namely caspases and metacaspases. In order to be active, caspases need to dimerize. Based on their sequence similarity with MALT1, we hypothesized that dimerization might also be a mechanism of activation employed by MALT1. To address this assumption, we performed a bioinformatics modelling based on the crystal structures of several caspases. Our model suggested that the MALT1 caspase-like domain can indeed form dimers. This finding was later confirmed by several published crystal structures of MALT1. In the dimer interface of our model, we noticed the presence of charged amino acids that could potentially form salt bridges and thereby hold both monomers together. Mutation of one of these residues, E549, into alanine completely blocked the catalytic activity of MALT1. Additionally, we provided evidence for a role of E549 in promoting the MALTl-dependent growth of cells derived from diffuse large B cell lymphoma (DLBCL) of the aggressive B cell-like type (ABC). To our initial surprise, the E549A mutation showed only a partial defect in dimerization, indicating that additional residues are essential to form a stable dimer. The MALT1 crystal structures revealed a key function for E549 in stabilizing the catalytic site of the protease via its interaction with an arginine which is located next to the catalytic active cysteine. In an additional study, we discovered that MALT1 monoubiquitination is required for the catalytic activity of the protease. Interestingly, we found that the MALT1 dimer interface mutant E549A could not be monoubiquitinated. Based on these findings, we suggest that correct formation of the dimer interface is a prerequisite for monoubiquitination. In a second project, we discovered a novel target of the protease MALT1, the ribonuclease Regnase¬la It was described that the RNase activity of Regnase-1 negatively regulates immune responses. We could show that in ABC DLBCL cell lines, Regnase-1 is not only cleaved by MALT1 but also phosphorylated, at least in part, by the inhibitor of KB kinase (IKK). Both regulations appear to restrain the RNase function of Regnase-1 and thereby allow the production of pro-survival proteins. In conclusion, our studies further highlight and explain the importance of the catalytic activity of MALT1 for the activation of lymphocytes and provide additional knowledge for the development of specific drugs targeting the catalytic activity of MALT1 for immunomodulation and treatment of lymphomas.  SUMMARY IN FRENCH PhD Thesis Katrin Cabalzar 2 SUMMARY IN FRENCH Une infection persistante induit une réponse immunitaire adaptative par l'intermédiaire des lymphocytes T et B. Quand elles reconnaissent l'antigène, ces cellules sont activées et se multiplient très rapidement pour défendre efficacement l'hôte. L'activation des lymphocytes est transmise par un complexe composé de trois protéines, CARMA1, BCL10 et MALT1, qui régule la voie de signalisation NF-KB lorsque l'antigène est reconnu. L'expression ou l'activité anormalement élevée de l'une de ces trois protéines peut favoriser le développement de lymphomes, tandis que des défauts génétiques de cette voie de signalisation sont associés à l'immunodéficience. MALT1 a été identifiée comme étant une paracaspase qui partage des séquences homologues avec d'autres protéases à cystéine, comme les caspases et les métacaspases. Pour être actives, les caspases ont besoin de dimériser. Etant donné leur similarité de séquence avec MALT1, nous avons supposé que la dimérisation pouvait aussi être un mécanisme d'activation utilisé par MALT1. Pour vérifier cette hypothèse, nous avons conçu un modèle bioinformatique à partir des structures cristallographiques de plusieurs caspases. Et notre modèle a suggéré que le domaine catalytique de MALT1 était effectivement capable de former des dimères. Cette découverte a été confirmée plus tard par des publications qui montrent des structures cristallographiques dimériques de MALT1. Dans l'interface du dimère de notre modèle, nous avons remarqué la présence d'acides aminés chargés qui pouvaient former des liaisons ioniques et ainsi réunir les deux monomères. La mutation de l'un de ces résidus, E549, pour une alanine, a complètement inhibé l'activité catalytique de MALT1. De plus, nous avons mis en évidence un rôle d'E549 dans la croissance dépendante de MALT1, des cellules dérivées de lymphomes B diffus à grandes cellules (DLBCL) de sous-type cellules B actives (ABC). Dans un premier temps nous avons été surpris de constater que cette mutation révélait seulement un défaut partiel de dimérisation, ce qui indique que des acides aminés supplémentaires sont indispensables pour former un dimère stable. Les structures cristallographiques de MALT1 ont révélé un rôle primordial d'E549 dans la stabilisation du site catalytique de la protéase via son interaction avec une arginine qui se trouve à côté de la cystéine du site actif. Dans une autre étude, nous avons découvert que la monoubiquitination de MALT1 est requise pour l'activité catalytique de la protéase. A remarquer que nous avons trouvé que le mutant E549A de l'interface dimère de MALT1 n'a pas pu être monoubiquitiné. Sur la base de ces résultats, nous suggérons que la formation correcte de l'interface du dimère est une condition préalable pour la monoubiquitination. Dans un second projet, nous avons découvert une nouvelle cible de la protéase MALT1, la ribonucléase Regnase-1. Il a été décrit que l'activité RNase de Regnase-1 régulait négativement les réponses immunitaires. Nous avons pu montrer que dans les lignées cellulaires ABC DLBCL, la Regnase-1 n'était pas seulement clivée par MALT1 mais également phosphorylée, au moins en partie, par la kinase de l'inhibiteur de KB (IKK). Les deux régulations semblent supprimer la fonction RNase de Regnase-1 et permettre ainsi la stabilisation de certains ARN messagers et la production de protéines favorisant la survie. En conclusion, nos études mettent en évidence le rôle-clé de la dimérisation de MALT1 et expliquent l'importance de l'activité catalytique de MALT1 pour l'activation des lymphocytes. Ainsi, nos résultats apportent des connaissances supplémentaires pour le développement de médicaments spécifiques ciblant l'activité catalytique de MALT1, qui pourraient être utiles pour modifier les réponses immunitaires et traiter des lymphomes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cet article présente les résultats d'une revue systématique publiée par la Collaboration Cochrane dans la Cochrane Library (www.cochrane.org) : James A.C., James G., Cowdrey F.A., Soler A., Choke A., « Cognitive behavioural therapy for anxiety disorders in children and adolescents », Cochrane Database Syst. Rev., 2013 ; 6 : CD004690. Volontairement limité à un champ de recherche circonscrit, cet article reflète l'état actuel des connaissances de ce domaine. Il ne s'agit donc pas de recommandations pour guider la prise en charge d'une problématique clinique considérée dans sa globalité (guidelines).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette rubrique présente les résultats d'une revue systématique publiée par la Collaboration Cochrane dans la Cochrane Library au premier trimestre 2008 (www.cochrane.org/). Volontairement limité à un champ de recherche circonscrit, cet article reflète l'état actuel des connaissances de ce domaine. Il ne s'agit donc pas de recommandations pour guider la prise en charge d'une problématique clinique considérée dans sa globalité (guidelines).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La ponction lombaire (PL) est un geste fréquent en médecine interne, en particulier dans les services d'urgences. Dans cet article, nous présentons une description détaillée de ce geste en donnant quelques conseils pratiques pour sa réussite, la gestion des cas difficiles et la prévention des complications. Nous abordons aussi des questions pratiques comme l'indication à une imagerie cérébrale avant le geste et la mobilisation après la PL. La connaissance des indications, des détails de la procédure ainsi que des complications potentielles et de leur prise en charge constitue la base pour une information complète à donner au patient. Lumbar puncture (LP) is a procedure frequently performed by internists. The aim of this article is to describe in detail the procedure, to give some practical advices to always succeed in doing a lumbar puncture and to discuss the most frequent complications, how to prevent them and how to treat them. We will also answer some frequently asked questions, such as indications to perform neuroimaging before a lumbar puncture, or patient mobilisation after LP. Knowledge of these points is key to give a complete information to the patients and obtain an informed consent

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Commençant par la compréhension du processus de prise de décisions en politique économique, puis par l'étude de la participation des Acteurs Sociaux (AS), pour aboutir à l'éclaircissement de leur rôle en politique économique. Le choix des AS correspond aux facteurs productifs :¦? Travail : Syndicat, Confédérations¦? Capital : Patronat, Groupes économiques¦? Ressources naturelles - inclus l'Economie clandestine¦? Esprit d'entreprise dans tous les AS¦Méthode : analyse institutionnelle, AS comme protagonistes. Contexte latino-américain et mondial (chapitre I), relation avec les Politiques (chapitre II), identification des positionnements face aux Politiques économiques (chapitre III). Etude sur deux périodes :¦1) Front National (FN) (1958-1986). Pacte de partis traditionnels pour l'obtention (non accomplie) de la paix et du développement. Objectif acquis via des politiques adéquates mais sans amélioration du domaine social (politique de revenu absente).¦En conséquence, développement des Cartels surpassant l'Intégration Andine. Echec des tentatives d'Ouverture précoce grâce aux Centrales syndicales (1977) aux Organisations patronales (1981), confirmant le bipartisme; crise de la dette sans cessations de paiements, ni décennie perdue (Colombie) ; développement des AS profitant d'absence de partis d'opposition.¦2) L'Ouverture (1989-2000) : Nouvelle Constitution avec amplifications de l'Etat, réformes financière, des échanges, sans sélectivité ni gradualité demandées par les AS. Emergence du blanchiment.¦Montée en puissance des Groupes économiques au détriment des Organisations patronales, (excepté les industriels), perte du lobbying syndical. Malgré des résultats positifs macro-économiques, les taux de chômage, secteur informel, et pauvreté, situent¦le pays au 2eme rang en concentration du revenu en Amérique latine et au 5eme rang mondial.¦Conclusion : les AS se sont mis en avant dans l'inflation (30% à 8%) et la dévaluation. Par contre, les taux d'intérêt et de change ont provoqué le crédit clandestin et la réévaluation avec ouverture aux importations ; pas de succès non plus sur le déficit fiscal ni la gestion des booms (café, drogues). La plupart des Politiques ont donc été décidées d'après la Banque centrale et le Ministère des finances confirmant la primauté du gouvernement sur les AS durant la période analysée.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.