1000 resultados para Mesures expérimentales
Resumo:
284 million people worldwide suffered from type 2 diabetes mellitus (T2DM) in 2010, which will, in approximately half of them, lead to the development of diabetic peripheral neuropathy (DPN). Although DPN is the most common complication of diabetes mellitus and the leading cause of non-traumatic amputations its pathophysiology is still poorly understood. To get more insight into the molecular mechanism underlying DPN in T2DM, I used a rodent model of T2DM, the db/db mice.¦ln vivo electrophysiological recordings of diabetic animals indicated that in addition to reduced nerve conduction velocity db/db mice also present increased nerve excitability. Further ex vivo evaluation of the electrophysiological properties of db/db nerves clearly established a presence of the peripheral nerve hyperexcitability (PNH) phenotype in diabetic animals. Using pharmacological inhibitors we demonstrated that PNH is mostly mediated by the decreased activity of Kv1 channels. ln agreement with these data 1 observed that the diabetic condition led to a reduced presence of the Kv1.2 subunits in juxtaparanodal regions of db/db peripheral nerves whereas its mANA and protein expression levels were not affected. Lmportantly, I confirmed a loss of juxtaparanodal Kv1.2 subunits in nerve biopsies from type 2 diabetic patients. Together these observations indicate that the type 2 diabetic condition leads to potassium-channel mediated changes of nerve excitability thus identifying them as potential drug targets to treat sorne of the DPN related symptoms.¦Schwann cells ensheath and isolate peripheral axons by the production of myelin, which consists of lipids and proteins in a ratio of 2:1. Peripheral myelin protein 2 (= P2, Pmp2 or FABP8) was originally described as one of the most abundant myelin proteins in the peripheral nervous system. P2, which is a member of the fatty acid binding protein (FABP) family, is a 14.8 kDa cytosolic protein expressed on the cytoplasmic side of compact myelin membranes. As indicated by their name, the principal role of FABPs is thought to be the binding and transport of fatty acids.¦To study its role in myelinating glial cells I have recently generated a complete P2 knockout mouse model (P2-/-). I confirmed the loss of P2 in the sciatic nerve of P2-/- mice at the mRNA and protein level. Electrophysiological analysis of the adult (P56) mutant mice revealed a mild but significant reduction in the motor nerve conduction velocity. lnterestingly, this functional change was not accompanied by any detectable alterations in general myelin structure. However, I have observed significant alterations in the mRNA expression level of other FABPs, predominantly FABP9, in the PNS of P2-/- mice as compared to age-matched P2+/+ mice indicating a role of P2 in the glial myelin lipid metabolism.¦Le diabète de type 2 touche 284 million de personnes dans le monde en 2010 et son évolution conduit dans la moitié des cas à une neuropathie périphérique diabétique. Bien que la neuropathie périphérique soit la complication la plus courante du diabète pouvant conduire jusqu'à l'amputation, sa physiopathologie est aujourd'hui encore mal comprise. Dans le but d'améliorer les connaissances moléculaires expliquant les mécanismes de la neuropathie liée au diabète de type 2, j'ai utilisé un modèle murin du diabète de type 2, les souris db/db.¦ln vivo, les enregistrements éléctrophysiologiques des animaux diabétiques montrent qu'en plus d'une diminution de la vitesse de conduction nerveuse, les souris db/db présentent également une augmentation de l'excitabilité nerveuse. Des mesures menées Ex vivo ont montré l'existence d'un phénotype d'hyperexcitabilité sur les nerfs périphériques isolés d'animaux diabétiques. Grâce à l'utilisation d'inhibiteurs pharmacologiques, nous avons pu démontrer que l'hyperexcitabilité démontrée était due à une réduction d'activité des canaux Kv1. En accord avec ces données, j'ai observé qu'une situation de diabète conduisait à une diminution des canaux Kv1.2 aux régions juxta-paranodales des nerfs périphériques db/db, alors que l'expression du transcrit et de la protéine restait stable. J'ai également confirmé l'absence de canaux Kv1.2 aux juxta-paranoeuds de biopsies de nerfs de patients diabétiques. L'ensemble de ces observations montrent que les nerfs périphériques chez les patients atteints de diabète de type 2 est due à une diminution des canaux potassiques rapides juxtaparanodaux les identifiant ainsi comme des cibles thérapeutiques potentielles.¦Les cellules de Schwann enveloppent et isolent les axones périphériques d'une membrane spécialisée, la myéline, composée de deux fois plus de lipides que de protéines. La protéine P2 (Pmp2 "peripheral myelin protein 2" ou FABP8 "fatty acid binding protein") est l'une des protéines les plus abondantes au système nerveux périphérique. P2 appartient à la famille de protéines FABP liant et transportant les acides gras et est une protéine cytosolique de 14,8 kDa exprimée du côté cytoplasmique de la myéline compacte.¦Afin d'étudier le rôle de P2 dans les cellules de Schwann myélinisantes, j'ai généré une souris knockout (P2-/-). Après avoir validé l'absence de transcrit et de protéine P2 dans les nerfs sciatiques P2-/-, des mesures électrophysiologiques ont montré une réduction modérée mais significative de la vitesse de conduction du nerf moteur périphérique. Il est important de noter que ces changements fonctionnels n'ont pas pu être associés à quelconque changement dans la structure de la myéline. Cependant, j'ai observé dans les nerfs périphériques P2-/-, une altération significative du niveau d'expression d'ARNm d'autres FABPs et en particulier FABP9. Ce dernier résultat démontre l'importance du rôle de la protéine P2 dans le métabolisme lipidique de la myéline.
Resumo:
[cat] En aquest treball extenem les reformes lineals introduïdes per Pfähler (1984) al cas d’impostos duals. Estudiem l’efecte relatiu que els retalls lineals duals d’un impost dual tenen sobre la distribució de la desigualtat -es pot fer un estudi simètric per al cas d’augments d’impostos-. Tambe introduïm mesures del grau de progressivitat d’impostos duals i mostrem que estan connectades amb el criteri de dominació de Lorenz. Addicionalment, estudiem l’elasticitat de la càrrega fiscal de cadascuna de les reformes proposades. Finalment, gràcies a un model de microsimulació i una gran base de dades que conté informació sobre l’IRPF espanyol de l’any 2004, 1) comparem l’efecte que diferents reformes tindrien sobre l’impost dual espanyol i 2) estudiem quina redistribució de la riquesa va suposar la reforma dual de l’IRPF (Llei ’35/2006’) respecte l’anterior impost.
Resumo:
Most optimistic views, based on Optimum Currency Areas (OCA) literature, have concluded that the probability of asymmetric shocks to occur at anational level will tend to diminish in the Economic and Monetary Union (EMU)as a result of the intensification of the integration process during the most recent years. Therefore, since Economic Geography Theories predict a higherspecialisation of regions, it is expected that asymmetric shocks will increase.Previous studies have examined to what extent asymmetric shocks have been relevant in the past using, mainly, static measures of asymmetries such as the correlation coefficients between series of shocks previously calculated from astructural VAR model (Bayoumi and Eichengreen, 1992).In this paper, we study the evolution of manufacturing specific asymmetries in Europe from a dynamic point of view (applying the modelproposed by Haldane and Hall, 1991) in order to obtain new evidence about potential risks of EMU.
Resumo:
Comprend : [pl. dépl. en reg. p.CX :] Profil de la cordilière du Pérou, coupée par un plan vertical perpendiculaire à sa longueur. Vue de la cordilière du Pérou aux environs de Quito. [cote : microfilm m 5842/R88883] ; [pl. en reg. p.182 : secteur, instument de mesure astronomique. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.1 à la fin du volume : plan d'un instrument astronomique. Figures géométriques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.2 à la fin du volume : plan. Figures géométriques. Cadran de mesures astronomiques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.3 à la fin du volume : instruments de mesures astronomiques. Calculs et figures géométriques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.4 à la fin du volume : schéma du système de vision. Instruments de mesures astronomioques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.5 à la fin du volume : figures géométriques. Schéma de cadrans astronomiques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [pl.6 à la fin du volume : mode de mesure. Instruments de mesures astronomiques. XVIIIè siècle.] Figure de la terre. [cote : microfilm m 5842/R88883] ; [Carte à la fin du volume : Pérou.] Carte des triangles de la méridienne de Quito. [cote : microfilm m 5842/R88883]
Resumo:
Consideramos el proceso clásico del riesgo modificado con la introducción de una barrera dedividendos constante, de tal forma que cuando el proceso de reservas alcanza la barrera se pagandividendos hasta la ocurrencia del siguiente siniestro. En la literatura actuarial se plantea el cálculo de W(u,b) definida como la esperanza del valor actual, a un tanto constante, de los dividendos repartidos hasta el momento de ruina en un modelo con barrera constante b(t)=b. Se calcula el valor de la barrera que maximiza dicha esperanza. En este trabajo se realizan dos contribuciones en este tema. En primer lugar se profundiza en el análisis de W(u,b), proponiéndose combinaciones de las variables de control que proporcionan resultados económicamente óptimos. En segundo lugar se definen nuevas medidas relacionadas con W(u,b) que la complementan y pueden ayudar al decisor en el proceso de definición de las variables de control.
Resumo:
Este artículo, mediante el método de la Contabilidad Generacional, examina la viabilidad a largo plazo y los efectos sobre la redistribución intergeneracional de la renta del sistema de pensiones español. Dado la enorme deuda acumulada, que se traslada a las generaciones futuras, se explora la posibilidad de introducir políticas de reforma por el lado de los ingresos que pretenden mitigar la fuerte dependencia demográfica de las finanzas de la Seguridad Social. El principal resultado obtenido es que la gravedad de la crisis demográfica hace que estos tipos de medidas estudiadas sean claramente insuficientes para restaurar el equilibrio intergeneracional.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
Comprend : [ Page de titre avec figures. Clerc enseignant (Bartholomeo Paxi?) les poids et mesures. XVIè siècle.] [ Cote : BNF B 40404. ]
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.
Resumo:
Summary : The skin is a complex organ that protects the body against entry of pathogens and supplies a relatively dry and impermeable barrier to water loss. This barrier function is mainly provided by the epidermis, which is the outermost layer of the skin. Serine proteases are involved in skin physiology and it is known that mutations or alterations in their expression can lead to skin diseases. In order to investigate the importance of the regulated expression of CAPI/Prss8, a membrane bound serine protease expressed in the epidermis, we developed transgenic mice ectopically expressing CAPI/Prss8 in the skin. These animals exhibited a phenotype characterized by scaly skin, epidermal hypertrophy, inflammation and scratching behavior. This phenotype could be completely abolished in mice lacking the proteinase activated receptor 2 (PAR2) revealing PAR2 as a potential in vivo downstream target of CAP 1 /Prss8. We could also provide evidence of a CAP1 /Prss8 function independent of its catalytic activity. Additionally, mice ectopically expressing PAR2 in the skin developed a skin phenotype very similar to CAPI/Prss8 transgenic animals, supporting the hypothesis of PAR2 activation by CAPI/Prss8. We could furthermore demonstrate an inhibitory effect of the serine protease inhibitor nexin-I on CAPI/Prss8, since nexin-1 transgenic expression negated the skin phenotype observed in CAPI/Prss8 transgenic mice. CAP1/Prss8 and PAR2 transgenic animals, and the understanding of the interaction between CAPl/Prss8 and PAR2, can be helpful in developing potential CAPI/Prss8 and PAR2 inhibitory molecules that may be used as drugs to treat ichthyoses-like skin diseases. Résumé : La peau est un organe complexe qui protège le corps contre l'entrée des pathogènes et forme une barrière imperméable qui empêche la déshydratation. Cette fonction de barrière est surtout fournie par l'épiderme, la couche la plus superficielle de la peau. Le bon fonctionnement de cet organe est permis, entre autres, par les protéases à sérine qui sont des enzymes dont l'altération peut causer des maladies de la peau. Pour étudier l'importance de la régulation de CAP1/Prss8, une protéase à sérine exprimée au niveau de l'épiderme, des souris génétiquement modifiées, dans lesquelles CAP1/Prss8 est exprimé d'une manière ectopique dans la peau, ont été générées. Les animaux transgéniques pour CAP1/Prss8 présentent une peau squameuse, un épiderme hypertrophique, des processus inflammatoires et se grattent. Ce phénotype a pu être complètement guéri lorsque le gène de PAR2, un récepteur qui règle l'activité des cellules de l'épiderme, est inactivé chez la souris. Ceci montre que PAR2 est une cible de CAP1/Prss8 dans le système étudié. Des études expérimentales suggèrent de plus que l'effet de CAP1/Prss8 dans ce modèle ne dépend pas de son activité enzymatique. En dernière analyse, il a été démontré que l'expression transgénique de nexin-1, un inhibiteur des protéases à sérine exprimé dans la peau, a la capacité d'améliorer la peau squameuse et l'épiderme hypertrophique causés par CAP1/Prss8 transgénique. Les animaux transgéniques pour CAP1/Prss8 et PAR2, et la compréhension du mécanisme d'interaction entre eux, pourraient aider à développer et à tester des molécules inhibitrices de CAP1 /Prss8 et PARI qui pourraient alors être utilisées comme médicaments pour traiter des maladies de la peau comme les ichthyoses.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.
Resumo:
Le taux de retour au travail après greffe est généralement bas. Or, on sait que le retour au travail après greffe améliore la qualité de vie des transplantés. Le but de notre étude était donc de comprendre les raisons possibles à ce faible taux en montrant les facteurs professionnels, individuels ou médicaux pouvant l'influencer. Parmi les 61 greffés rénaux ou hépatiques suivis au centre de transplantation d'organe (CTO) du CHUV, 39% ont repris le travail après greffe. Trois facteurs étaient significatifs de retour au travail après greffe, à savoir "travail avant greffe", « diplôme » et « âge<45 ans ». Ainsi, il est utile pour la pratique médicale de connaître les facteurs potentiels influençant le retour au travail car cela permet d'évaluer, au stade prégreffe, les chances de retour au travail et si besoin de proposer des mesures spécifiques le favorisant. -- The rate of return to work after transplantation is generally low, however this improves the quality of life of recipients. The aim of our study was to investigate the low rate after transplantation in 61 renal or liver patients followed at the Transplant Center (CTO) of the CHUV in Lausanne, and to analyse the occupational, individual and medical factors which may influence it. 39% of recipients returned to work after transplantation. The factors "being active pre-transplant", "with diploma" and "age< 45 years old" were significantly related to return to work. In conclusion, knowledge of the factors influencing return to work after transplantation are important for medical practice, in order to propose early medico-socio-professional measures in order to maintain workability.
Resumo:
Au vu de l'augmentation de la prévalence de l'insuffisance rénale chronique (IRC), une détection précoce a été proposée. Certaines organisations de santé proposent des mesures de détection précoce (par exemple : taux de filtration glomérulaire). L'efficacité du dépistage de l'IRC n'est cependant pas connue puisqu'aucune étude randomisée contrôlée n'a été conduite. Si le test de dépistage de l'IRC est simple et peu onéreux, un dépistage n'est justifié que s'il améliore le pronostic par rapport à l'absence de dépistage avec un rapport risques-bénéfices favorable et un rapport coût-efficacité acceptable. Sur la base d'études observationnelles et de modèles de rapport coût-efficacité, le dépistage de l'IRC doit être proposé chez les patients hypertendus et/ou diabétiques mais pas dans la population générale. [Abstract] Given the increasing prevalence of chronic kidney disease (CKD), early detection has been proposed. Some organizations recommend CKD screening. Yet, the efficacy of CKD screening is unknown given the absence of randomized controlled trial conducted so far. While CKD screening tests (e.g., glomerular filtration rate) are simple and inexpensive, CKD screening can only be justified if it reduces CKD-related mortality and/or CKD-related morbidity compared to no screening. In addition, CKD screening must provide more benefits than risks to the participants and must be cost-effective. Based on observational studies and cost-effectiveness models, CKD screening has to be proposed to high risk population (patients with hypertension and/or diabetes) but not to the general population.
Resumo:
L'athérosclérose (ATS) est une maladie artérielle inflammatoire chronique à l'origine des nombreuses maladies cardiovasculaires que sont l'infarctus du myocarde, l'accident vasculaire cérébral ou encore l'artériopathie oblitérante des membres inférieurs. L'ATS se définit comme la formation de plaques fibro-lipidiques dans l'intima des artères. Les facteurs de risque majeurs associés à l'ATS sont l'hypertension, l'hypercholestérolémie, le tabagisme, le diabète, la sédentarité, ou encore des prédispositions génétiques. L'ATS peut être asymptomatique durant des années ou alors engendrer des complications aiguës pouvant parfois mettre le pronostic vital en jeu. Les complications les plus graves surviennent principalement lors de la rupture d'une plaque athéromateuse dite vulnérable ou instable. En effet, cette dernière peut se rompre et entraîner la formation d'un thrombus artériel occlusif avec, pour conséquence, l'ischémie/nécrose des tissus en aval. Prévenir le développement de la plaque vulnérable et/ou la « stabiliser » permettrait donc de prévenir les complications cliniques de l'ATS. Cet objectif requiert une connaissance éclairée des mécanismes cellulaires et moléculaires impliqués dans la physiopathologie de l'ATS et de la plaque vulnérable. Les travaux expérimentaux menés au sein du laboratoire du service d'angiologie du CHUV sous la direction du Prof. Lucia Mazzolai ont montré que l'angiotensine II (ang II), produit final de la cascade du système rénine-angiotensine, joue un rôle majeur dans la « vulnérabilité » des plaques athéromateuses (1). Ces travaux ont été réalisés à partir d'un modèle animal original développant des plaques d'ATS vulnérables dépendantes de l'ang II: la souris ApoE-/- 2 reins-1 clip (2K1C). Plus récemment, le laboratoire d'angiologie a mis en évidence une implication directe des leucocytes, plus précisément des macrophages et des lymphocytes T CD4+, dans l'athérogenèse ang II-dépendante (2,3). Dernièrement, des travaux ont également suggéré un rôle possible des granulocytes neutrophiles dans l'ATS (4,5,6,7). Toutefois, les études sont encore limitées de sorte que le rôle exact des neutrophiles dans l'ATS et plus spécialement dans l'ATS induite par l'ang II reste à démontrer. Une des recherches actuelles menée dans le laboratoire est donc d'étudier le rôle des neutrophiles dans le développement de la plaque athéromateuse vulnérable à partir du modèle animal, la souris ApoE-/- 2K1C. Pour évaluer le rôle direct des neutrophiles chez notre modèle animal, nous avons choisi comme méthode la déplétion des neutrophiles circulants par l'utilisation d'un anticorps spécifique. Il a été reporté dans la littérature que l'anticorps monoclonal NIMP-R14 3 permettait de dépléter sélectivement in vivo les neutrophiles dans différents modèles murins (8,9). Cependant, ces études ont utilisé cet anticorps anti-neutrophiles majoritairement sur des périodes expérimentales de durées relativement limitées (12-14 jours) et la question s'est donc posée de savoir si cet anticorps pouvait aussi dépléter les neutrophiles chez notre modèle animal, qui requiert une période expérimentale de 4 semaines pour développer des plaques vulnérables (1). Le but de ce travail a donc été de produire l'anticorps NIMP-R14 et d'évaluer son efficacité chez la souris ApoE-/- 2K1C qui développe des plaque d'ATS vulnérables dépendantes de l'ang II.