370 resultados para Mesures microondes.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ  41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment répondre à cette double exigence : soigner plus et soigner les plus réticents ? Nous nous proposons de discuter des réponses que nous essayons d'apporter à ce double défi. La première mesure a été une réduction dans les durées de séjour au CTJA (Centre Thérapeutique de Jour pour Adolescents), de manière à répondre à davantage de demandes de traitement. Nous verrons que c'est une mesure difficile à appliquer. D'autre part, pour répondre au désir d'être plus actifs dans les prises en charge de patients à haut risque psychopathologique, réfractaires aux soins, nous mettons progressivement en place une unité mobile d'intervention dans un milieu visant l'établissement d'une alliance permettant ensuite une prise en soin plus conséquente. Mesures intéressantes, nécessaires, mais qui complexifient le travail d'une équipe multidisciplinaire en mutation continuelle. Le fonctionnement de l'équipe, obligée de s'adapter aux diverses pressions qu'elle subit, est abordé en dernier lieu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente les risques liés aux transitians de soins et en particulier hospitalo-ambulatoires, qui, sans mesure d'accompagnement proactive, menacent le processus de rétablissement des personnes souffrant de troubles psychiatriques. En effet, les risques de rupture des soins et de réadmission sont davantage liés aux caractéristiques du système sociosanitaire qu'à celles du patient ou de la maladie. Des mesures d'accompagnement simples ne sont pas systématiques dans le domaine de la psychiatrie, alors même que ces patients sont particulièrement vulnérables dans les périodes de post-hospitalisation souvent synonymes de barrières au traitement. Le modèle de case management de transition développé à Lausanne est brièvement présenté et illustré au moyen d'une vignette clinique. Ses particularités sont notamment le recours systématique à certains outils soutenant le rétablissement et l'implication active du patient et de son entourage depuis l'hospitalisation jusqu'au retour dans la communauté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le taux de retour au travail après greffe est généralement bas. Or, on sait que le retour au travail après greffe améliore la qualité de vie des transplantés. Le but de notre étude était donc de comprendre les raisons possibles à ce faible taux en montrant les facteurs professionnels, individuels ou médicaux pouvant l'influencer. Parmi les 61 greffés rénaux ou hépatiques suivis au centre de transplantation d'organe (CTO) du CHUV, 39% ont repris le travail après greffe. Trois facteurs étaient significatifs de retour au travail après greffe, à savoir «travail avant greffe», «diplôme» et «âge < 45 ans». Ainsi, il est utile pour la pratique médicale de connaître les facteurs potentiels influençant le retour au travail car cela permet d'évaluer, au stade prégreffe, les chances de retour au travail et si besoin de proposer des mesures spécifiques le favorisant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport décrit le marché des médicaments remboursés par l'assurance obligatoire des soins (AOS) avec une intention particulière des génériques. En premier lieu, l'évolution des coûts et des quantités de médicaments entre 2006 et 2011; et présente la part de marché des génériques dans le marché des médicaments. Ensuite les économies résiduelles des génériques sont estimées dans l'hypothèse d'une utilisation plus étendue de ces derniers. Enfin le rapport montre l'influence des mesures des autorités fédérales dans le domaine des médicaments et de l'incidence de la commercialisation de génériques sur le prix des médicaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce mémoire de master est de créer un système d'indicateurs de résultats pour évaluer l'impact des soins à domicile sur la qualité de vie des personnes âgées fragiles et dépendantes vivant dans le canton de Vaud. Ainsi, le premier chapitre présente le système des soins à domicile dans le canton de Vaud dans son ensemble et, en particulier, le panel d'acteurs qui y participe, soit les prestataires, les co-acteurs et les bénéficiaires. Afin de connaître l'état de la recherche sur le sujet, une revue de la littérature sur l'évaluation des soins à domicile tant dans le canton de Vaud qu'au niveau international est développée au chapitre 2. Le concept de qualité de vie est défini au chapitre 3. Les différentes mesures de ce concept y sont également détaillées ainsi que les dimensions les plus citées dans la littérature, tant objectives que subjectives. Le chapitre 4 expose la recherche « terrain » effectuée auprès d'une dizaine de client-e-s de CMS par le biais d'interviews. Une fois les différentes étapes (hypothèse de départ, échantillonnage, grille d'entretien) exposées, les rencontres avec les client-e-s de CMS les plus marquantes sont décrites. Enfin, au chapitre 5, sont présentés les onze indicateurs de résultats en lien avec les différentes dimensions de la qualité de vie : la santé, les relations sociales, le statut socio-économique, le domicile, les capacités fonctionnelles et le bien-être.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mort subite est fréquemment d'origine génétique, en particulier lorsqu'elle touche les sujets jeunes. Il existe dans ces situations un risque accru pour les proches, qui devraient bénéficier d'un bilan cardiologique et d'un conseil génétique, dans la mesure où des mesures thérapeutiques et/ou préventives sont disponibles. Les analyses génétiques post-mortem, ou autopsie moléculaire, permettent de préciser le diagnostic dans un certain nombre de cas. Ces nouvelles possibilités sont susceptibles d'améliorer le dépistage des sujets à risque, même si leur mise en oeuvre suscite nombre de questions éthiques, majorées par des cicronstances psychologiques difficiles. Des protocoles spécifiques d'évaluation et une information des professionnels doivent être développés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est définie par l'International association for the study of pain (IASP) comme une expérience sensorielle et émotionnelle désagréable, associée à une lésion tissulaire réelle ou à une lésion potentielle, ou décrite en des termes évoquant une telle lésion. Sa fonction est de signaler une menace potentielle pour l'intégrité de l'organisme. Mais ce ressenti peut persister ou être présent en l'absence d'une telle menace. Il s'agit dans ce cas d'une douleur pathologique dont les mécanismes étiologiques et physiopathologiques ne sont pas encore bien compris.¦Ce travail de maîtrise a pour objectif l'étude d'une mutation génétique responsable d'un syndrome douloureux chronique. Cette mutation génétique a été décelée chez une famille de patients lausannois atteints de PEPD (paroxysmal extreme pain disorder) et touche le canal sodique Nav1.7. Ce canal est exprimé principalement dans les neurones des ganglions sensitifs et des ganglions sympathiques. Il est considéré comme responsable de la transmission de la douleur vers le SNC car des mutations « perte de fonction » de ce canal sont à l'origine d'une insensibilité congénitale à la douleur. Les mutations « gain de fonction » de ce canal sont à l'origine de syndromes douloureux chroniques tel le syndrome PEPD ou l'érythromélalgie. La mutation présente chez les patients lausannois est située entre les segments transmembranaires S4 et S5 sur le 4ème domaine de la sous-unité α du canal sodique Nav1.7. Cette mutation ne touche qu'un seul acide aminé, en position 1612 où une leucine est remplacée par une proline.¦Les méthodes employées dans ce travail sont la mutagenèse pour générer des plasmides contenant le gène SCN9A muté (T4835C) codant pour le canal Nav1.7 muté (L1612P), l'amplification de ces plasmides dans des bactéries et la transfection de cellules HEK293 avec les plasmides contenant le gène SCN9A muté (T4835C). Nous avons ainsi pu induire l'expression du canal muté dans des cellules HEK293. Ces cellules pourront être utilisées par la suite pour enregistrer les courants ioniques transitant à travers les canaux exprimés à la membrane plasmique. Cela permettra de comparer les propriétés électrophysiologiques du canal Nav1.7 muté L1612P avec celles du canal non muté. Nous avons également recherché l'expression d'ARNm codant pour les composants des canaux sodiques (sous-unités α et β) dans les cellules HEK293 non transfectées par la technique de qRT-PCR. Ceci afin de répertorier les composants des canaux sodiques exprimés constitutivement par les cellules HEK293 qui pourraient avoir une influence sur les mesures électrophysiologiques qui seront effectuées sur ces cellules.¦Ce travail a permis de générer des plasmides contenant le gène SCN9A muté T4835C qui sont des outils nécessaires à la réalisation d'études plus détaillées sur le fonctionnement et les propriétés du canal Nav1.7 muté L1612P. Ce travail a également permis, par la méthode de la qRT-PCR, une analyse de l'expression d'ARNm codant pour la sous-unité α du canal Nav1.7 et des sous-unités β 1 à 4 par les cellules HEK293. Les résultats ainsi obtenus permettent de mieux caractériser le transcriptome des cellules HEK293 et seront utiles pour interpréter avec plus de précisions les expérimentations électrophysiologiques utilisant ces cellules. L'étude électrophysiologique des cellules HEK293 exprimant le canal Nav1.7 muté par la technique du patch clamp est en cours. Elle sera poursuivie dans le cadre d'un travail de recherche dépassant le cadre de ce travail de maîtrise. Les cellules HEK293 exprimant le canal Nav1.7 muté (L1612P) pourront être également utilisées pour tester l'effet de divers médicaments sur ce canal. Ce qui pourrait d'une part permettre d'optimiser le traitement des patients souffrant de PEPD et d'autre part être utile pour tout traitement à but antalgique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

284 million people worldwide suffered from type 2 diabetes mellitus (T2DM) in 2010, which will, in approximately half of them, lead to the development of diabetic peripheral neuropathy (DPN). Although DPN is the most common complication of diabetes mellitus and the leading cause of non-traumatic amputations its pathophysiology is still poorly understood. To get more insight into the molecular mechanism underlying DPN in T2DM, I used a rodent model of T2DM, the db/db mice.¦ln vivo electrophysiological recordings of diabetic animals indicated that in addition to reduced nerve conduction velocity db/db mice also present increased nerve excitability. Further ex vivo evaluation of the electrophysiological properties of db/db nerves clearly established a presence of the peripheral nerve hyperexcitability (PNH) phenotype in diabetic animals. Using pharmacological inhibitors we demonstrated that PNH is mostly mediated by the decreased activity of Kv1 channels. ln agreement with these data 1 observed that the diabetic condition led to a reduced presence of the Kv1.2 subunits in juxtaparanodal regions of db/db peripheral nerves whereas its mANA and protein expression levels were not affected. Lmportantly, I confirmed a loss of juxtaparanodal Kv1.2 subunits in nerve biopsies from type 2 diabetic patients. Together these observations indicate that the type 2 diabetic condition leads to potassium-channel mediated changes of nerve excitability thus identifying them as potential drug targets to treat sorne of the DPN related symptoms.¦Schwann cells ensheath and isolate peripheral axons by the production of myelin, which consists of lipids and proteins in a ratio of 2:1. Peripheral myelin protein 2 (= P2, Pmp2 or FABP8) was originally described as one of the most abundant myelin proteins in the peripheral nervous system. P2, which is a member of the fatty acid binding protein (FABP) family, is a 14.8 kDa cytosolic protein expressed on the cytoplasmic side of compact myelin membranes. As indicated by their name, the principal role of FABPs is thought to be the binding and transport of fatty acids.¦To study its role in myelinating glial cells I have recently generated a complete P2 knockout mouse model (P2-/-). I confirmed the loss of P2 in the sciatic nerve of P2-/- mice at the mRNA and protein level. Electrophysiological analysis of the adult (P56) mutant mice revealed a mild but significant reduction in the motor nerve conduction velocity. lnterestingly, this functional change was not accompanied by any detectable alterations in general myelin structure. However, I have observed significant alterations in the mRNA expression level of other FABPs, predominantly FABP9, in the PNS of P2-/- mice as compared to age-matched P2+/+ mice indicating a role of P2 in the glial myelin lipid metabolism.¦Le diabète de type 2 touche 284 million de personnes dans le monde en 2010 et son évolution conduit dans la moitié des cas à une neuropathie périphérique diabétique. Bien que la neuropathie périphérique soit la complication la plus courante du diabète pouvant conduire jusqu'à l'amputation, sa physiopathologie est aujourd'hui encore mal comprise. Dans le but d'améliorer les connaissances moléculaires expliquant les mécanismes de la neuropathie liée au diabète de type 2, j'ai utilisé un modèle murin du diabète de type 2, les souris db/db.¦ln vivo, les enregistrements éléctrophysiologiques des animaux diabétiques montrent qu'en plus d'une diminution de la vitesse de conduction nerveuse, les souris db/db présentent également une augmentation de l'excitabilité nerveuse. Des mesures menées Ex­ vivo ont montré l'existence d'un phénotype d'hyperexcitabilité sur les nerfs périphériques isolés d'animaux diabétiques. Grâce à l'utilisation d'inhibiteurs pharmacologiques, nous avons pu démontrer que l'hyperexcitabilité démontrée était due à une réduction d'activité des canaux Kv1. En accord avec ces données, j'ai observé qu'une situation de diabète conduisait à une diminution des canaux Kv1.2 aux régions juxta-paranodales des nerfs périphériques db/db, alors que l'expression du transcrit et de la protéine restait stable. J'ai également confirmé l'absence de canaux Kv1.2 aux juxta-paranoeuds de biopsies de nerfs de patients diabétiques. L'ensemble de ces observations montrent que les nerfs périphériques chez les patients atteints de diabète de type 2 est due à une diminution des canaux potassiques rapides juxtaparanodaux les identifiant ainsi comme des cibles thérapeutiques potentielles.¦Les cellules de Schwann enveloppent et isolent les axones périphériques d'une membrane spécialisée, la myéline, composée de deux fois plus de lipides que de protéines. La protéine P2 (Pmp2 "peripheral myelin protein 2" ou FABP8 "fatty acid binding protein") est l'une des protéines les plus abondantes au système nerveux périphérique. P2 appartient à la famille de protéines FABP liant et transportant les acides gras et est une protéine cytosolique de 14,8 kDa exprimée du côté cytoplasmique de la myéline compacte.¦Afin d'étudier le rôle de P2 dans les cellules de Schwann myélinisantes, j'ai généré une souris knockout (P2-/-). Après avoir validé l'absence de transcrit et de protéine P2 dans les nerfs sciatiques P2-/-, des mesures électrophysiologiques ont montré une réduction modérée mais significative de la vitesse de conduction du nerf moteur périphérique. Il est important de noter que ces changements fonctionnels n'ont pas pu être associés à quelconque changement dans la structure de la myéline. Cependant, j'ai observé dans les nerfs périphériques P2-/-, une altération significative du niveau d'expression d'ARNm d'autres FABPs et en particulier FABP9. Ce dernier résultat démontre l'importance du rôle de la protéine P2 dans le métabolisme lipidique de la myéline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.