414 resultados para Caractéristiques environnementales
Resumo:
La présente thèse se propose d'étudier les fortifications connues dans le territoire d'Erétrie (île d'Eubée, Grèce), essentiellement aux époques classique et hellénistique (Ve-IIe siècles av. J.-C.). La plupart de ces constructions (forteresses de grand appareil, habitats fortifiés, enceintes de pierres sèches et tours) sont connues depuis le 19e siècle, mais ce travail constitue la première étude archéologique et historique d'ensemble qui leur est consacrée exclusivement. Bien que décrites depuis longtemps, les fortifications des campagnes grecques ont surtout été étudiées d'un point de vue architectural et historique. Cette approche a privilégié une interprétation militaire et stratégique, reliant les fortifications au sein de réseaux défensifs conçus à grande échelle et destinés à bloquer les accès et les frontières du territoire. Notre perspective est différente, puisqu'elle s'efforce de replacer chaque fortification dans la géographie antique en étudiant son interaction avec les plaines et les reliefs, les frontières, l'habitat, les voies de communication, les terres cultivables et la répartition de la population. Pour ce faire, nous avons établi une carte archéologique de l'Erétriade, conduit des prospections extensives autour des fortifications, ainsi que dans de nombreuses régions du territoire. Cette méthode permet d'aborder l'étude des fortifications rurales en adoptant des angles d'analyse différents : le premier, macro-géographique, met ainsi en valeur des caractéristiques générales, telles que la relation entre les fortifications et la capitale d'une part, les fortifications et les terres cultivables de l'autre ; au plan régional, ou micro-géographique, elle analyse la répartition des fortifications au sein de chaque district de l'Erétriade, voire des vallées ou des cantons, mettant en évidence le rôle local des ouvrages fortifiés. Au terme de cette recherche, il est apparu qu'une approche purement stratégique ou militaire ne permettait pas d'expliquer la répartition géographique des fortifications, puisque ces dernières se trouvent pour la plupart à l'intérieur du territoire et non à ses frontières. Elles ne sont pas non plus disposées de manière à pouvoir exercer une surveillance étroite sur les routes pénétrant dans la chôra ; aussi leur fonctionnement au sein d'un «réseau défensif frontalier ne peut pas être démontré. Dans l'Erétriade, la colonne vertébrale de la sécurité publique est formée par les habitats fortifiés, dèmes et kômai, complétée par l'existence de deux forteresses militaires ayant accueilli des garnisons. Placés toujours à bonne distance de la ville, puis à intervalles plus ou moins réguliers au sein du territoire, les habitats fortifiés jouent sur le plan régional le rôle de la ville : en cas d'invasion ou de danger, la population du dème ou des dèmes environnants pouvait y trouver refuge, mettant ainsi à l'abri récoltes, biens et animaux. L'apparition des fortifications territoriales correspond à l'extension maximale de l'occupation humaine, agricole et économique du territoire. Les communautés rurales qui en avaient la possibilité se dotèrent alors de fortifications, souvent sommaires, pour faire face à des menaces variées, mais surtout pour assurer leur propre sécurité et protéger un équilibre autarcique fragile. Il ne faut donc pas nécessairement attribuer la construction de fortifications à un événement historique précis, interprétation abusive courante dans l'étude des fortifications, en Grèce comme ailleurs. La fortification des habitats ruraux s'est réalisée de manière progressive, en réponse aux sentiments d'insécurité d'une population rurale toujours plus nombreuse. Faute de références littéraires et d'inscriptions, en particulier de décrets honorifiques, les forteresses et les habitats fortifiés de l'Erétriade constituent les derniers témoins de l'insécurité publique et des violences auxquelles fut confronté le territoire d'Erétrie aux époques classique et hellénistique.
Resumo:
Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Le réseau social d'un individu joue un rôle important dans sa réinsertion. En Suisse, entre 30 et 40% des postes sont obtenus grâce à l'entourage (famille, amis, anciens collègues de travail, etc.). Nouvellement constituée, une base de données permet d'analyser les caractéristiques et le fonctionnement des réseaux sociaux.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.
Resumo:
[Table des matières] Caractéristiques des naissances, 1979-1985. Evolution séculaire des mortalités néonatale, post-néonatale et infantile par sexe, 1901-1987 (données quinquennales). Evolution de la mortinatalité par sexe, 1969-1987. Taux de mortalité, canton de Valais, 1979-1985(87).
Resumo:
ABSTRACTIn normal tissues, a balance between pro- and anti-angiogenic factors tightly controls angiogenesis. Alterations of this balance may have pathological consequences. For instance, concerning the retina, the vascular endothelial growth factor (VEGF) is a potent pro-angiogenic factor, and has been identified has a key player during ocular neovascularization implicated in a variety of retinal diseases. In the exudative form (wet-form) of age-related macular degeneration (AMD), neovascularizations occurring from the choroidal vessels are responsible for a quick and dramatic loss of visual acuity. In diabetic retinopathy and retinopathy of prematurity, sprouting from the retinal vessels leads to vision loss. Furthermore, the aging of the population, the increased- prevalence of diabetes and the better survival rate of premature infants will lead to an increasing rate of these conditions. In this way, anti-VEGF strategy represents an important therapeutic target to treat ocular neovascular disorders.In addition, the administration of Pigmented Epithelial growth factor, a neurotrophic and an anti- angiogenic factor, prevents photoreceptor cell death in a model of retinal degeneration induced by light. Previous results analyzing end point morphology reveal that the light damage (LD) model is used to mimic retinal degenerations arising from environmental insult, as well as aging and genetic disease such as advanced atrophic AMD. Moreover, light has been identified as a co-factor in a number of retinal diseases, speeding up the degeneration process. This protecting effect of PEDF in the LD retina raises the possibility of involvement of the balance between pro- and anti-angiogenic factors not only for angiogenesis, but also in cell survival and maintenance.The aim of the work presented here was to evaluate the importance of this balance in neurodegenerative processes. To this aim, a model of light-induced retinal degeneration was used and characterized, mainly focusing on factors simultaneously controlling neuron survival and angiogenesis, such as PEDF and VEGF.In most species, prolonged intense light exposure can lead to photoreceptor cell damage that can progress to cell death and vision loss. A protocol previously described to induce retinal degeneration in Balb/c mice was used. Retinas were characterized at different time points after light injury through several methods at the functional and molecular levels. Data obtained confirmed that toxic level of light induce PR cell death. Variations were observed in VEGF pathway players in both the neural retina and the eye-cup containing the retinal pigment epithelium (RPE), suggesting a flux of VEGF from the RPE towards the neuroretina. Concomitantly, the integrity of the outer blood-retinal-barrier (BRB) was altered, leading to extravascular albumin leakage from the choroid throughout the photoreceptor layer.To evaluate the importance of VEGF during light-induced retinal degeneration process, a lentiviral vector encoding the cDNA of a single chain antibody directed against all VEGF-A isoforms was developed (LV-V65). The bioactivity of this vector to block VEGF was validated in a mouse model of laser-induced choroidal neovascularization mediated by VEGF upregulation. The vector was then used in the LD model. The administration of the LV-V65 contributed to the maintenance of functional photoreceptors, which was assessed by ERG recording, visual acuity measurement and histological analyses. At the RPE level, the BRB integrity was preserved as shown by the absence of albumin leakage and the maintenance of RPE cell cohesion.These results taken together indicate that the VEGF is a mediator of light induced PR degeneration process and confirm the crucial role of the balance between pro- and anti-angiogenic factors in the PR cell survival. This work also highlights the prime importance of BRB integrity and functional coupling between RPE and PR cells to maintain the PR survival. VEGF dysregulation was already shown to be involved in wet AMD forms and our study suggests that VEGF dysregulation may also occur at early stages of AMD and could thus be a potential therapeutic target for several RPE related diseases.RESUMEDans les différents tissues de l'organisme, l'angiogenèse est strictement contrôlée par une balance entre les facteurs pro- et anti-angiogéniques. Des modifications survenant dans cette balance peuvent engendrer des conséquences pathologiques. Par exemple, concernant la rétine, le facteur de croissance de l'endothélium vasculaire (VEGF) est un facteur pro-angiogénique important. Ce facteur a été identifié comme un acteur majeur dans les néovascularisations oculaires et les processus pathologiques angiogéniques survenant dans l'oeil et responsables d'une grande variété de maladies rétiniennes. Dans la forme humide de la dégénérescence maculaire liée à l'âge (DMLA), la néovascularisation choroïdienne est responsable de la perte rapide et brutale de l'acuité visuelle chez les patients affectés. Dans la rétinopathie diabétique et celle lié à la prématurité, l'émergence de néovaisseaux rétiniens est la cause de la perte de la vision. Les néovascularisations oculaires représentent la principale cause de cécité dans les pays développés. De plus, l'âge croissant de la population, la progression de la prévalence du diabète et la meilleure survie des enfants prématurés mèneront sans doute à l'augmentation de ces pathologies dans les années futures. Dans ces conditions, les thérapies anti- angiogéniques visant à inhiber le VEGF représentent une importante cible thérapeutique pour le traitement de ces pathologies.Plusieurs facteurs anti-angiogéniques ont été identifiés. Parmi eux, le facteur de l'épithélium pigmentaire (PEDF) est à la fois un facteur neuro-trophique et anti-angiogénique, et l'administration de ce facteur au niveau de la rétine dans un modèle de dégénérescence rétinienne induite par la lumière protège les photorécepteurs de la mort cellulaire. Des études antérieures basées sur l'analyse morphologique ont révélé que les modifications survenant lors de la dégénération induite suite à l'exposition à des doses toxiques de lumière représente un remarquable modèle pour l'étude des dégénérations rétiniennes suite à des lésions environnementales, à l'âge ou encore aux maladies génétiques telle que la forme atrophique avancée de la DMLA. De plus, la lumière a été identifiée comme un co-facteur impliqué dans un grand nombre de maladies rétiniennes, accélérant le processus de dégénération. L'effet protecteur du PEDF dans les rétines lésées suite à l'exposition de des doses toxiques de lumière suscite la possibilité que la balance entre les facteurs pro- et anti-angiogéniques soit impliquée non seulement dans les processus angiogéniques, mais également dans le maintient et la survie des cellules.Le but de ce projet consiste donc à évaluer l'implication de cette balance lors des processus neurodégénératifs. Pour cela, un modèle de dégénération induite par la lumière à été utilisé et caractérisé, avec un intérêt particulier pour les facteurs comme le PEDF et le VEGF contrôlant simultanément la survie des neurones et l'angiogenèse.Dans la plupart des espèces, l'exposition prolongée à une lumière intense peut provoquer des dommages au niveau des cellules photoréceptrices de l'oeil, qui peut mener à leur mort, et par conséquent à la perte de la vision. Un protocole préalablement décrit a été utilisé pour induire la dégénération rétinienne dans les souris albinos Balb/c. Les rétines ont été analysées à différents moments après la lésion par différentes techniques, aussi bien au niveau moléculaire que fonctionnel. Les résultats obtenus ont confirmé que des doses toxiques de lumière induisent la mort des photorécepteurs, mais altèrent également la voie de signalisation du VEGF, aussi bien dans la neuro-rétine que dans le reste de l'oeil, contenant l'épithélium pigmentaire (EP), et suggérant un flux de VEGF provenant de ΙΈΡ en direction de la neuro-rétine. Simultanément, il se produit une altération de l'intégrité de la barrière hémato-rétinienne externe, menant à la fuite de protéine telle que l'albumine, provenant de la choroïde et retrouvée dans les compartiments extravasculaires de la rétine, telle que dans la couche des photorécepteurs.Pour déterminer l'importance et le rôle du VEGF, un vecteur lentiviral codant pour un anticorps neutralisant dirigée contre tous les isoformes du VEGF a été développé (LV-V65). La bio-activité de ce vecteur a été testé et validée dans un modèle de laser, connu pour induire des néovascularisations choroïdiennes chez la souris suite à l'augmentation du VEGF. Ce vecteur a ensuite été utilisé dans le modèle de dégénération induite par la lumière. Les résultats des électrorétinogrammes, les mesures de l'acuité visuelle et les analyses histologiques ont montré que l'injection du LV-V65 contribue à la maintenance de photorécepteurs fonctionnels. Au niveau de l'EP, l'absence d'albumine et la maintenance des jonctions cellulaires des cellules de l'EP ont démontré que l'intégrité de la barrière hémato-rétinienne externe est préservée suite au traitement.Par conséquent, tous les résultats obtenus indiquent que le VEGF est un médiateur important impliquée dans le processus de dégénération induit par la lumière et confirme le rôle cruciale de la balance entre les facteurs pro- et anti-angiogéniques dans la survie des photorécepteurs. Cette étude révèle également l'importance de l'intégrité de la barrière hémato-rétinienne et l'importance du lien fonctionnel et structurel entre l'EP et les photorécepteurs, essentiel pour la survie de ces derniers. Par ailleurs, Cette étude suggère que des dérèglements au niveau de l'équilibre du VEGF ne sont pas seulement impliqués dans la forme humide de la DMLA, comme déjà démontré dans des études antérieures, mais pourraient également contribuer et survenir dans des formes précoces de la DMLA, et par conséquent le VEGF représente une cible thérapeutique potentielle pour les maladies associées à des anomalies au niveau de l'EP.
Resumo:
The opportunistic ubiquitous pathogen Pseudomonas aeruginosa strain PAOl is a versatile Gram-negative bacterium that has the extraordinary capacity to colonize a wide diversity of ecological niches and to cause severe and persistent infections in humans. To ensure an optimal coordination of the genes involved in nutrient utilization, this bacterium uses the NtrB/C and/or the CbrA/B two-component systems, to sense nutrients availability and to regulate in consequence the expression of genes involved in their uptake and catabolism. NtrB/C is specialized in nitrogen utilization, while the CbrA/B system is involved in both carbon and nitrogen utilization and both systems activate their target genes expression in concert with the alternative sigma factor RpoN. Moreover, the NtrB/C and CbrA/B two- component systems regulate the secondary metabolism of the bacterium, such as the production of virulence factors. In addition to the fine-tuning transcriptional regulation, P. aeruginosa can rapidly modulate its metabolism using small non-coding regulatory RNAs (sRNAs), which regulate gene expression at the post-transcriptional level by diverse and sophisticated mechanisms and contribute to the fast physiological adaptability of this bacterium. In our search for novel RpoN-dependent sRNAs modulating the nutritional adaptation of P. aeruginosa PAOl, we discovered NrsZ (Nitrogen regulated sRNA), a novel RpoN-dependent sRNA that is induced under nitrogen starvation by the NtrB/C two-component system. NrsZ has a unique architecture, formed of three similar stem-loop structures (SL I, II and II) separated by variant spacer sequences. Moreover, this sRNA is processed in short individual stem-loop molecules, by internal cleavage involving the endoribonuclease RNAse E. Concerning NrsZ functions in P. aeruginosa PAOl, this sRNA was shown to trigger the swarming motility and the rhamnolipid biosurfactants production. This regulation is due to the NrsZ-mediated activation of rhlA expression, a gene encoding for an enzyme essential for swarming motility and rhamnolipids production. Interestingly, the SL I structure of NrsZ ensures its regulatory function on rhlA expression, suggesting that the similar SLs are the functional units of this modular sRNA. However, the regulatory mechanism of action of NrsZ on rhlA expression activation remains unclear and is currently being investigated. Additionally, the NrsZ regulatory network was investigated by a transcriptome analysis, suggesting that numerous genes involved in both primary and secondary metabolism are regulated by this sRNA. To emphasize the importance of NrsZ, we investigated its conservation in other Pseudomonas species and demonstrated that NrsZ is conserved and expressed under nitrogen limitation in Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48 and Pseudomonas syringae pv. tomato DC3000, strains having different ecological features, suggesting an important role of NrsZ in the adaptation of Pseudomonads to nitrogen starvation. Interestingly the architecture of the different NrsZ homologs is similarly composed by SL structures and variant spacer sequences. However, the number of SL repetitions is not identical, and one to six SLs were predicted on the different NrsZ homologs. Moreover, NrsZ is processed in short molecules in all the strains, similarly to what was previously observed in P. aeruginosa PAOl, and the heterologous expression of the NrsZ homologs restored rhlA expression, swarming motility and rhamnolipids production in the P. aeruginosa NrsZ mutant. In many aspects, NrsZ is an atypical sRNA in the bacterial panorama. To our knowledge, NrsZ is the first described sRNA induced by the NtrB/C. Moreover, its unique modular architecture and its processing in similar short SL molecules suggest that NrsZ belongs to a novel family of bacterial sRNAs. -- L'agent pathogène opportuniste et ubiquitaire Pseudomonas aeruginosa souche PAOl est une bactérie Gram négative versatile ayant l'extraordinaire capacité de coloniser différentes niches écologiques et de causer des infections sévères et persistantes chez l'être humain. Afin d'assurer une coordination optimale des gènes impliqués dans l'utilisation de différents nutriments, cette bactérie se sert de systèmes à deux composants tel que NtrB/C et CbrA/B afin de détecter la disponibilité des ressources nutritives, puis de réguler en conséquence l'expression des gènes impliqués dans leur importation et leur catabolisme. Le système NtrB/C régule l'utilisation des sources d'azote alors que le système CbrA/B est impliqué à la fois dans l'utilisation des sources de carbone et d'azote. Ces deux systèmes activent l'expression de leurs gènes-cibles de concert avec le facteur sigma alternatif RpoN. En outre, NtrB/C et CbrA/B régulent aussi le métabolisme secondaire, contrôlant notamment la production d'importants facteurs de virulence. En plus de toutes ces régulations génétiques fines ayant lieu au niveau transcriptionnel, P. aeruginosa est aussi capable de moduler son métabolisme en se servant de petits ARNs régulateurs non-codants (ARNncs), qui régulent l'expression génétique à un niveau post- transcriptionnel par divers mécanismes sophistiqués et contribuent à rendre particulièrement rapide l'adaptation physiologique de cette bactérie. Au cours de nos recherches sur de nouveaux ARNncs dépendant du facteur sigma RpoN et impliqués dans l'adaptation nutritionnelle de P. aeruginosa PAOl, nous avons découvert NrsZ (Nitrogen regulated sRNA), un ARNnc induit par la cascade NtrB/C-RpoN en condition de carence en azote. NrsZ a une architecture unique, composée de trois structures en tige- boucle (TB I, II et III) hautement similaires et séparées par des « espaceurs » ayant des séquences variables. De plus, cet ARNnc est clivé en petits fragments correspondant au trois molécules en tige-boucle, par un processus de clivage interne impliquant l'endoribonucléase RNase E. Concernant les fonctions de NrsZ chez P. aeruginosa PAOl, cet ARNnc est capable d'induire la motilité de type « swarming » et la production de biosurfactants, nommés rhamnolipides. Cette régulation est due à l'activation par NrsZ de l'expression de rhlA, un gène essentiel pour la motilité de type swarming et pour la production de rhamnolipides. Étonnamment, la structure TB I est capable d'assurer à elle seule la fonction régulatrice de NrsZ sur l'expression de rhlA, suggérant que ces molécules TBs sont les unités fonctionnelles de cet ARNnc modulaire. Cependant, le mécanisme moléculaire par lequel NrsZ active l'expression de rhlA demeure à ce jour incertain et est actuellement à l'étude. En plus, le réseau de régulations médiées par NrsZ a été étudié par une analyse de transcriptome qui a indiqué que de nombreux gènes impliqués dans le métabolisme primaire ou secondaire seraient régulés par NrsZ. Pour accentuer l'importance de NrsZ, nous avons étudié sa conservation dans d'autres espèces de Pseudomonas. Ainsi, nous avons démontré que NrsZ est conservé et exprimé en situation de carence d'azote par les souches Pseudomonas protegens Pf-5, Pseudomonas putida KT2442, Pseudomonas entomophila L48, Pseudomonas syringae pv. tomato DC3000, quatre espèces ayant des caractéristiques écologiques très différentes, suggérant que NrsZ joue un rôle important dans l'adaptation du genre Pseudomonas envers la carence en azote. Chez toutes les souches étudiées, les différents homologues de NrsZ présentent une architecture similaire faite de TBs conservées et d'espaceurs. Cependant, le nombre de TBs n'est pas identique et peut varier de une à six copies selon la souche. Les différentes versions de NrsZ sont clivées en petites molécules dans ces quatre souches, comme il a été observé chez P. aeruginosa PAOl. De plus, l'expression hétérologue des différentes variantes de NrsZ est capable de restaurer l'expression de rhlA, la motilité swarming et la production de rhamnolipides dans une souche de P. aeruginosa dont nrsZ a été inactivé. Par bien des aspects, NrsZ est un ARNnc atypique dans le monde bactérien. À notre connaissance, NrsZ est le premier ARNnc décrit comme étant régulé par le système NtrB/C. De plus, son unique architecture modulaire et son clivage en petites molécules similaires suggèrent que NrsZ appartient à une nouvelle famille d'ARNncs bactériens.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
Résumé Fondement : le développement de solutions d'hydroxy-éthyl-amidons (HEAS) avec peu d'impact sur la coagulation sanguine, mais un effet supérieur sur la volémie, par comparaison aux HEAS couramment utilisés, est d'un grand intérêt clinique. Nous posons l'hypothèse que des solutions de haut poids moléculaire et de bas degré de substitution possèdent ces caractéristiques. Méthode : trente porcs ont été perfusés avec trois HEAS différents (20 ml/kg) de même degré de substitution (0.42) mais de poids moléculaire différent (130, 500 et 900 kDa). Une série de prélèvements sanguins ont été effectués sur 24 heures, sur lesquels des analyses de coagulation sanguine étaient effectuées par thromboélastographie et dosages plasmatiques. De plus, la concentration plasmatique ainsi que le poids moléculaire in vivo ont été déterminés, ainsi que des paramètres de pharmacocinétiques, ceci en se basant sur un modèle bi-compartimental. Résultats : les analyses de thromboélastographie et les tests de coagulation plasmatique n'ont pas démontré d'altération plus marquée de la coagulation sanguine après l'utilisation des solutions des HAES 500 et HAES 900, par comparaison avec celle de HAES 130. Par contre, les HAES 500 et HAES 900 ont présenté une plus grande aire sous la courbe (area under the curve), dans la relation concentration en fonction du temps [1542 (142) g min litre-1, p<0.001, 1701 (321) g min litre-1, p<0.001] par rapport au HAES 130 [1156 (223) g min litre-1]. La demi-vie alpha (t ½α) était plus longue pour les HAES 500 [53.8 (8.6) min, p<0.01] et HAES 900 [57.1 (12.3) min, p<0.01 ]que pour le HAES 130 [39.9 (10.7) min]. La demi-vie beta (t½β) était par contre similaire pour les trois types de HAES [de 332 (100) à 381 (63) min]. Conclusions : pour les HAES de bas degré de substitution, le poids moléculaire n'est pas un facteur clé en ce qui concerne l'altération de la coagulation. La persistance intravasculaire initialement plus longue des HAES de haut poids moléculaire et bas degré de substitution pourrait résulter dans un plus long effet volémique de ces substances. Abstract Background: The development of hydroxyethyl starches (HES) with low impact on blood coagulation but higher volume effect compared with the currently used HES solutions is of clinical interest. We hypothesized that high molecular weight, low-substituted HES might possess these properties. Methods: Thirty pigs were infused with three different HES solutions (20 ml kg-1) with the same degree of molar substitution (0.42) but different molecular weights (130, 500 and 900 kDa). Serial blood samples were taken over 24 h and blood coagulation was assessed by Thromboelastograph® analysis and analysis of plasma coagulation. In addition, plasma concentration and in vivo molecular weight were determined and pharmacokinetic data were computed based on a two-compartment model. Results: Thromboelastograph analysis and plasma coagulation tests did not reveal a more pronounced alteration of blood coagulation with HES 500 and HES 900 compared with HES 130. In contrast, HES 500 and HES 900 had a greater area under the plasma concentration-time curve [1542 (142) g min litre-1, P<0.001, 1701 (321) g min litre-1, P<0.001] than HES 130 [I 156 (223) g min litre-1] and alpha half life (t ½α) was longer for HES 500 [53.8 (8.6) min, P<0.01 ] and HES 900 [57. I (I 2.3) min, P<0.01 ] than for HES 130 [39.9 (I 0.7) min]. Beta half life (t½β), however, was similar for all three types of HES [from 332 (100) to 381 (63) min]. Conclusions. In low-substituted HES, molecular weight is not a key factor in compromising blood coagulation. The longer initial intravascular persistence of high molecular weight lowsubstituted HES might result in a longer lasting volume effect.
Resumo:
Rapport de synthèseLes troubles de la glycosylation (Congenital Disorders of Glycosylation, CDG) regroupent une famille de maladies multi-systémiques héréditaires causées par des défauts dans la synthèse de glycoconjugés. La glycosylation est une réaction enzymatique consistant à lier de façon covalente un glucide à une chaîne peptidique ou une protéine. Il existe deux types de glycosylation. La N-gjycosylation est l'addition de glucides aux chaînes peptidiques en croissance dès leur entrée dans la lumière du réticulum endoplasmique. Elle s'effectue sur les futures glycoprotéines membranaires et conduit à des chaînes de sucres courtes et ramifiées. La O-glycosylation est l'addition de glucides au niveau des résidus hydroxylés des acides aminés sérine et thréonine des chaînes peptidiques déjà présentes dans la lumière de l'appareil de Golgi. Elle est, dans la plupart des cas, effectuée sur îes protéoglycanes et conduit à des chaînes de sucres longues et non ramifiées. La classification des CDG repose sur le niveau de l'étape limitante de la glycosylation. Les CDG de type 1, plus fréquents, regroupent les déficits enzymatiques se situant en amont du transfert de Poligosaccharide sur la chaîne peptidique. Les CDG de type 2 regroupent ceux ayant lieu en aval de ce transfert. Parmi les nombreux différents sous-types de CDG, le CDG de type ld est causé par une anomalie de la mannosyltransferase, enzyme codée par le gène ALG3 (chromosome 3q27). Jusqu'à ce jour, six patients atteints de CDG ld ont été reportés dans la littérature. Notre travail a permis de décrire un septième patient et d'affiner les caractéristiques cliniques, biologiques, neuroradiologiques et moléculaires du CDG ld. Notre patient est notamment porteur d'une nouvelle mutation de type missense sur le gène ALG3. Tous les patients atteints de CDG ld présentent une encéphalopathie progressive avec microcéphalie, retard psychomoteur sévère et épilepsie. Une ostéopénie marquée est présente chez certains patients. Elle est parfois sous diagnostiquée et révélée uniquement lors de fracture pathologique. Les patients atteints de CDG ld présentent également des traits dysmorphiques typiques, mais aucune atteinte multi-systémique ou anomalie biologique spécifique n'est retrouvée telle que dans les autres types de CDG. Le dépistage biochimique des troubles de la glycosylation se fait par une analyse simple et peu coûteuse qui est l'analyse de la transferrine sérique par isoelectrofocusing ou par électrophorèse capillaire. Un tel dépistage devrait être effectué chez tout patient présentant une encéphalopathie d'origine indéterminée, et cela même en l'absence d'atteinte multi- systémique. Notre travail a été publié sous forme d'article de type « short report », peer-reviewed, dans le Journal of Inherited Metabolic Diseases. Le Journal est une révue spécialisée du domaine des erreirs innées du métabolisme. S'agissant d'un seul patient rapporté, l'article ne montre que très synthétiquement le travail effectué, Pour cette raison un complément à l'article avec matériel, méthodes et résultats figure ci-après et concerne la partie de recherche moléculaire de notre travail. La doctorante a non seulement encadré personnellement le patient au niveau clinique et biochimique, mais a plus particulièrement mis au point l'analyse moléculaire du gène ALG3 dans le laboratoire de Pédiatrie Moléculaire pour la première fois ; cela a impliqué l'étude du gène, le choix des oligonucleotides et l'optimisation des réactions d'amplification et séquençage.
Resumo:
Many organelles exist in an equilibrium of fragmentation into smaller units and fusion into larger structures, which is coordinated with cell division, the increase in cell mass, and envi¬ronmental conditions. In yeast cells, organelle homeostasis can be studied using the yeast vacuole (lysosome) as a model system. Yeast vacuoles are the main compartment for degrada¬tion of cellular proteins and storage of nutrients, ions and metabolites. Fission and fusion of vacuoles can be induced by hyper- and hypotonic shock in vivo, respectively, and have also been reconstituted in vitro using isolated vacuoles. The conserved serine/threonine kinase TOR (target of rapamycin) is a central nutrient sensor and regulates cell growth and metabolism. In yeast, there are two TOR proteins, Torlp and Tor2p, which are part of larger protein complexes, TORCI and TORC2. Only TORCI is rapamycin-sensitive. Disregulation of TOR signaling is linked to a multitude of diseases in humans, e.g. cancer, neurodegenerative diseases and metabolic syndrome. It has been shown that TORCI localizes to the vacuole membrane, and recent findings of our laboratory demonstrated that TORCI positively regulates vacuole fragmentation. This suggests that the fragmentation machinery should contain target proteins phosphorylated by TORCI. I explored the rapamycin-and fission-dependent vacuolar phosphoproteome during frag¬mentation, using a label-free mass-spectrometry approach. I identified many vacuolar factors whose phosphorylation was downregulated in a TORCI- and fission-dependent manner. Among them were known protein complexes that are functionally linked to fission or fusion, like the HOPS, VTC and FAB1 complexes. Hence, TORCI-dependent phosphorylations might positively regulate vacuole fission. Several candidates were chosen for detailed microscopic analysis of in vivo vacuole frag-mentation, using deletion mutants. I was able to identify novel factors not previously linked to fission phenotypes, e.g. the SEA complex, Pib2, and several vacuolar amino acid transporters. Transport of neutral and basic amino acids across the membrane seems to control vacuole fission, possibly via TORCI. I analyzed vacuolar fluxes of amino acids in wildtype yeast cells and found evidence for a selective vacuolar export of basic amino acids upon hyperosmotic stress. This leads me to propose a model where vacuolar export of amino acids is necessary to reshape the organelle under salt stress. - Le nombre et la taille de certaines organelles peut être déterminé par un équilibre entre la fragmentation qui produit des unités plus petites et la fusion qui génère des structures plus larges. Cet équilibre est coordonné avec la division cellulaire, l'augmentation de la masse cellulaire, et les conditions environnementales. Dans des cellules de levure, l'homéostasie des organelles peut être étudié à l'aide d'un système modèle, la vacuole de levure (lysosome). Les vacuoles constituent le principal compartiment de la dégradation des protéines et de stockage des nutriments, des ions et des métabolites. La fragmentation et la fusion des vacuoles peuvent être respectivement induites par un traitement hyper- ou hypo-tonique dans les cellules vivantes. Ces processus ont également été reconstitués in vitro en utilisant des vacuoles isolées. La sérine/thréonine kinase conservée TOR (target of rapamycin/cible de la rapamycine) est un senseur de nutriments majeur qui régule la croissance cellulaire et le métabolisme. Chez la levure, il existe deux protéines TOR, Torlp et Tor2p, qui sont les constituants de plus grands complexes de protéines, TORCI et TORC2. TORCI est spécifiquement inhibé par la rapamycine. Une dysrégulation de la signalisation de TOR est liée à une multitude de maladies chez l'homme comme le cancer, les maladies neurodégénératives et le syndrome métabolique. Il a été montré que TORCI se localise à la membrane vacuolaire et les découvertes récentes de notre laboratoire ont montré que TORCI régule positivement la fragmentation de la vacuole. Ceci suggère que le mécanisme de fragmentation doit être contrôlé par la phosphorylation de certaines protéines cibles de TORCI. J'ai exploré le phosphoprotéome vacuolaire lors de la fragmentation, en présence ou absence de rapamycine et dans des conditions provoquant la fragmentation des organelles. La méthode choisie pour réaliser la première partie de ce projet a été la spectrométrie de masse différentielle sans marquage. J'ai ainsi identifié plusieurs facteurs vacuolaires dont la phosphorylation est régulée d'une manière dépendante de TORCI et de la fragmentation. Parmi ces facteurs, des complexes protéiques connus qui sont fonctionnellement liées à fragmentation ou la fusion, comme les complexes HOPS, VTC et FAB1 ont été mis en évidence. Par conséquent, la phosphorylation dépendante de TORCI peut réguler positivement la fragmentation des vacuoles. Plusieurs candidats ont été choisis pour une analyse microscopique détaillée de la fragmentation vacuolaire in vivo en utilisant des mutants de délétion. J'ai été en mesure d'identifier de nouveaux facteurs qui n'avaient pas été encore associés à des phénotypes de fragmentation tels que les complexes SEA, Pib2p, ainsi que plusieurs transporteurs vacuolaires d'acides aminés. Le transport des acides aminés à travers la membrane semble contrôler la fragmentation de la vacuole. Puisque ces transporteurs sont phosphorylés par TORCI, ces résultats semblent confirmer la
Resumo:
La notion de développement durable structure le débat contemporain sur les finalités et les instruments des politiques publiques. La montée en puissance des préoccupations environnementales et de qualité des cadres de vie déplace les enjeux traditionnels de l'aménagement. Cette refonte s'inscrit dans une prise de conscience de la transversalité des problèmes de développement territorial. Une attention accrue est aussi portée aux acteurs et à leur participation invitant à repenser les articulations entre les élus, l'administration et la société civile. L'aménagement du territoire est à un tournant. La complexité accrue du champ décisionnel liée à la multiplicité des objectifs à prendre en compte, à la diversification des acteurs concernés, mais aussi à l'interférence des échelles de gouvernance bouscule les pratiques professionnelles. Cette note vise à montrer les principaux changements observés au cours des dernières années. Elle met l'accent sur la redéfinition des objectifs et des instruments d'aménagement et l'émergence des nouvelles pratiques de conduite de projets.