352 resultados para Macroéconomie--Modèles mathématiques
Resumo:
Introduction : La sécrétion d'insuline est régulée par le glucose et également pardes hormones peptidiques libérées par le tractus digestif, comme la neurotensine(NT). La NT est un neuropeptide, sécrété notamment par les cellules N dela paroi de l'estomac, qui exerce des fonctions régulatrices complexes dans lesystème digestif. Notre laboratoire a récemment démontré que les cellulesendocrines du pancréas (les îlots de Langherans) expriment les trois récepteursconnus de la NT. Nous avons montré que la NT module la survie de la cellulebêta pancréatique (Coppola et al. 2008). Cette fonction met en jeu deux desrécepteurs de la NT, le NTSR2 et le NTSR3 qui forment, après stimulation parla NT, un complexe protéique régulateur de la survie des cellules (Béraud-Dufour et al. 2009) et également de la sécrétion d'insuline (Béraud-Dufour et al.2010).Matériels et méthodes : La caractérisation pharmacologique de l'effet NT sur lasécrétion d'insuline a été faite à l'aide de ligands spécifiques (agonistes ou antagonistes),dans des expériences d'imagerie calciques et d'exocytose. Nous avonsmesuré l'acivation des PKC par imagerie en temps réel. Afin de déterminer lerôle de la NT dans la physiologie générale nous avons utilisé des modèles in vitro(lignées de cellules INS-1E) et in vivo (souris invalidées NTSR1 et NTSR2).Résultats : Nous avons montré que les récepteurs NTSR2 et NTSR3 interviennentdans la modulation de la sécrétion d'insuline en fonction des conditionsphysiologiques : 1) la NT stimule la sécrétion dans des conditions basales deglucose. 2) elle inhibe la sécrétion dans des situations d'hyperglycémie. La NTmobilise plusieurs activités protéines kinases C (PKC) nécessaires à son rôlephysiologique (Béraud-Dufour et al. 2010).Par ailleurs, sur les modèles murins l'étude du métabolisme de souris transgéniquesinvalidées pour les gènes des NTSR1 et NTSR2 a permis de mettre en évidencel'implication de la NT dans la régulation de l'homéostasie du glucose. Invivo, nous avons observé que l'injection intra péritonéale de NT diminue la glycémieet que cet effet nécessite la présence du NTSR1. Nous avons observé quel'invalidation du gène du NTSR1 affecte la réponse des souris lors des tests detolérance au glucose et à l'insulineConclusion : Les résultats obtenus dans cette étude prouvent que le bon fonctionnementdu système neurotensinergique est nécessaire au maintien d'uneglycémie stable. La dérégulation de ce système pourrait être l'un des facteursimpliqué dans la survenue et/ou l'aggravation d'un diabète de type 2.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.
Resumo:
Au vu de l'augmentation de la prévalence de l'insuffisance rénale chronique (IRC), une détection précoce a été proposée. Certaines organisations de santé proposent des mesures de détection précoce (par exemple : taux de filtration glomérulaire). L'efficacité du dépistage de l'IRC n'est cependant pas connue puisqu'aucune étude randomisée contrôlée n'a été conduite. Si le test de dépistage de l'IRC est simple et peu onéreux, un dépistage n'est justifié que s'il améliore le pronostic par rapport à l'absence de dépistage avec un rapport risques-bénéfices favorable et un rapport coût-efficacité acceptable. Sur la base d'études observationnelles et de modèles de rapport coût-efficacité, le dépistage de l'IRC doit être proposé chez les patients hypertendus et/ou diabétiques mais pas dans la population générale. [Abstract] Given the increasing prevalence of chronic kidney disease (CKD), early detection has been proposed. Some organizations recommend CKD screening. Yet, the efficacy of CKD screening is unknown given the absence of randomized controlled trial conducted so far. While CKD screening tests (e.g., glomerular filtration rate) are simple and inexpensive, CKD screening can only be justified if it reduces CKD-related mortality and/or CKD-related morbidity compared to no screening. In addition, CKD screening must provide more benefits than risks to the participants and must be cost-effective. Based on observational studies and cost-effectiveness models, CKD screening has to be proposed to high risk population (patients with hypertension and/or diabetes) but not to the general population.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
L'athérosclérose (ATS) est une maladie artérielle inflammatoire chronique à l'origine des nombreuses maladies cardiovasculaires que sont l'infarctus du myocarde, l'accident vasculaire cérébral ou encore l'artériopathie oblitérante des membres inférieurs. L'ATS se définit comme la formation de plaques fibro-lipidiques dans l'intima des artères. Les facteurs de risque majeurs associés à l'ATS sont l'hypertension, l'hypercholestérolémie, le tabagisme, le diabète, la sédentarité, ou encore des prédispositions génétiques. L'ATS peut être asymptomatique durant des années ou alors engendrer des complications aiguës pouvant parfois mettre le pronostic vital en jeu. Les complications les plus graves surviennent principalement lors de la rupture d'une plaque athéromateuse dite vulnérable ou instable. En effet, cette dernière peut se rompre et entraîner la formation d'un thrombus artériel occlusif avec, pour conséquence, l'ischémie/nécrose des tissus en aval. Prévenir le développement de la plaque vulnérable et/ou la « stabiliser » permettrait donc de prévenir les complications cliniques de l'ATS. Cet objectif requiert une connaissance éclairée des mécanismes cellulaires et moléculaires impliqués dans la physiopathologie de l'ATS et de la plaque vulnérable. Les travaux expérimentaux menés au sein du laboratoire du service d'angiologie du CHUV sous la direction du Prof. Lucia Mazzolai ont montré que l'angiotensine II (ang II), produit final de la cascade du système rénine-angiotensine, joue un rôle majeur dans la « vulnérabilité » des plaques athéromateuses (1). Ces travaux ont été réalisés à partir d'un modèle animal original développant des plaques d'ATS vulnérables dépendantes de l'ang II: la souris ApoE-/- 2 reins-1 clip (2K1C). Plus récemment, le laboratoire d'angiologie a mis en évidence une implication directe des leucocytes, plus précisément des macrophages et des lymphocytes T CD4+, dans l'athérogenèse ang II-dépendante (2,3). Dernièrement, des travaux ont également suggéré un rôle possible des granulocytes neutrophiles dans l'ATS (4,5,6,7). Toutefois, les études sont encore limitées de sorte que le rôle exact des neutrophiles dans l'ATS et plus spécialement dans l'ATS induite par l'ang II reste à démontrer. Une des recherches actuelles menée dans le laboratoire est donc d'étudier le rôle des neutrophiles dans le développement de la plaque athéromateuse vulnérable à partir du modèle animal, la souris ApoE-/- 2K1C. Pour évaluer le rôle direct des neutrophiles chez notre modèle animal, nous avons choisi comme méthode la déplétion des neutrophiles circulants par l'utilisation d'un anticorps spécifique. Il a été reporté dans la littérature que l'anticorps monoclonal NIMP-R14 3 permettait de dépléter sélectivement in vivo les neutrophiles dans différents modèles murins (8,9). Cependant, ces études ont utilisé cet anticorps anti-neutrophiles majoritairement sur des périodes expérimentales de durées relativement limitées (12-14 jours) et la question s'est donc posée de savoir si cet anticorps pouvait aussi dépléter les neutrophiles chez notre modèle animal, qui requiert une période expérimentale de 4 semaines pour développer des plaques vulnérables (1). Le but de ce travail a donc été de produire l'anticorps NIMP-R14 et d'évaluer son efficacité chez la souris ApoE-/- 2K1C qui développe des plaque d'ATS vulnérables dépendantes de l'ang II.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
In this present thesis Superparamagnetic Iron Oxide Nanoparticles (SPIONs) with 9 nm in diameter were selected as nanocarriers in order to study their potential application as drug delivery systems. Therefore the aim of the study was to demonstrate the proof of concept by establishing an efficient system of drug delivery, which would be a valuable tool in biomedical applications, such as the treatement of cancer, by reducing the side effects due to administration of a high concentration of therapeutic agents. As demonstrated in a previous study, the uptake of SPIONs by tumoral human cells was enhanced by the presence of amino groups on their surface. The stabilization of SPIONs were then performed and optimized by the coating of poly(vinylalcohol) and poly(vinylalcohol/vinylamine). Such nanoparticles were known as aminoPVA-SPIONs. The toxicity and the inflammatory reaction of aminoPVA-SPIONs were evaluated in order to establish their potentiel use in the human body. The results demonstrated that the human cells were able to invaginate aminoPVA-SPIONS without revealing any toxicity and inflammatory reaction. The analysis by transmission electron microscopy (TEM), scanning electron microscopy (SEM), cryo-TEM, confocal microscopy and histological staining (i.e. Prussian Blue) showed that the iron oxide core of SPIONs were located in the cytoplasm of cells and concentrated in vesicles. The evaluation of the mechanism of uptake of aminoPVA-SPIONs revealed that their uptake by monolayer cell culture was performed via an active mechanism, which was achieved by a clathrin-mediated endocytosis. Consequently, it was suggested that aminoPVA-SPIONs were good candidates as nanocarriers in drug delivery systems, which were able to reach the cytoplasm of cells. Their incubation with three-dimensional models mimicing tissues, such as differentiated rat brain cell-derived aggregates and spheroids, revealed that aminoPVA-SPIONs were able to invade into deep cell layers according to the stage of growth of these models. In the view of these promising results, drug-SPIONs were prepared by the functionalization of aminoPVA-SPIONs via a biological labile chemical bond by one of these three antineoplastic agents, which are widely used in clinical practice: 5-fluorourdine (Fur) (an antimetabolite), or camptothecin (CPT) (a topoisomerase inhibitor) or doxorubicin (DOX) (an anthracycline which interfere with DNA). The results shown that drug-SPIONs were internalized by human melanoma cells, as it was expected due the previous results with aminoPVA-SPIONs, and in addition they were active as anticancer agents, suggesting the efficient release of the drug from the drug-SPIONs. The results with CPT-SPIONs were the most promising, whereas DOX- SPIONs did not demonstrate a prononced activity of DOX. In conclusion, the results demonstrated that functionalized iron oxide nanoparticles are a promising tool in order to deliver therapeutic agents. - Dans le cadre de ce travail de thèse, les nanoparticules superparamagnétiques d'oxyde de fer (SPIONs) ayant un diamètre de 9 nm ont été choisies, afin d'étudier leur éventuelle utilisation dans un système de délivrance d'agents thérapeutiques. Ainsi le but de la thèse est de démontrer la faisabilité de fabriquer un système efficace de délivrance d'agents thérapeutiques, qui serait un outil intéressant dans le cadre d'une utilisation biomédicale, par exemple lors du traitement du cancer, qui pourrait réduire les effets secondaires provoqués par le dosage trop élevé de médicaments. Comme il a été démontré dans une précédente étude, l'invagination des SPIONs par des cellules humaines cancéreuses est améliorée par la présence de groupes fonctionnels amino à leur surface. La stabilisation des SPIONs est ainsi effectuée et optimisée par l'enrobage de poly(vinylalcool) et de (poly(vinylalcool/vinylamine), qui sont connues sous le nom de aminoPVA-SPIONs. La toxicité et la réaction inflammatoire des aminoPVA-SPIONs ont été évaluées dans le but de déterminer leur potentielle utilisation dans le corps humain. Les résultats démontrèrent que les cellules humaines sont capables d'invaginer les aminoPVAS-SPIONs sans induire une réaction toxique ou inflammatoire. L'analyse par la microscopie électronique en transmission électronique (TEM), la microscopie électronique à balayage (SEM), le cryo-microscopie électronique (SEM), la microscopie confocale et la coloration histologique (par ex, le bleu de Prusse) a montré que l'oxyde de fer des SPIONs est localisé dans le cytoplasme des cellules et est concentré dans des vesicules. L'évaluation du méchanisme d'invagination des aminoPVA-SPIONs ont révélé que leur invagination par des monocultures de cellules est effectué par un méchanisme actif, contrôlé par une endocytose induite par les clathrins. Par conséquent, les aminoPVA-SPIONs sont de bons candidats en tant que transporteurs (nanocamers) dans un système de délivrance d'agents thérapeuthique, capable d'atteindre le cytoplasme des cellules. Leur incubation avec des modèles tridimenstionnels imitant les tissues, tels que les aggrégats de cellules de cerveau différenciées et les sphéroïdes, a montré que les aminoPVA-SPIONs sont capable de pénétrer dans les couches profondes des modèles, selon l'état d'avancement de leur croissance. En vue de ces résultats prometteurs, les drug-SPIONs ont été préparés en fonctionalisant les aminoPVA-SPIONs par le biai d'une liaison chimique labile par un des trois agents thérapeutiques, déjà utilisé en pratique : 5-fluorourdine (Fur) (un antimétabolite), or camptothecin (CPT) (un inhibiteur de la topoisomerase) or doxorubicin (DOX) (un anthracycline qui interfère avec le DNA). Les résultats ont montré que les drug-SPIONs sont capable d'être internalisés par les mélanomes, comme il a été attendu d'après les résultats obtenus précédemment avec les aminoPVA-SPIONs, et de plus, les drug-SPIONs sont actifs, ce qui suggère un relargage efficace de l'agent thérapeutique du drug-SPIONs. Les résultats obtenus avec les CPT-SPIONs sont les plus prometteurs, tandis que ceux avec les DOX-SPIONs, ce n'est pas le cas, dont l'activité thérapeutique de DOX n'a pas été aussi efficace. En conclusion, les résultats ont pu démontrer que les nanoparticules d'oxyde de fer fonctionnalisées sont un outil prometteur dans la délivrance d'agents thérapeutiques.
Resumo:
SUMMARY : The arbuscular mycorrhizal (AM) symbiosis is an evolutionarily ancient association between most land plants and Glomeromycotan fungi that is based on the mutual exchange of nutrients between the two partners. Its structural and physiological establishment is a multi-step process involving a tightly regulated signal exchange leading to intracellular colonization of roots by the fungi. Most research on the molecular biology and genetics of symbiosis development has been performed in dicotyledonous model legumes. In these, a plant signaling pathway, the common SYM pathway, has been found to be required for accommodation of both root symbionts rhizobia and AM fungi. Rice, a monocotyledon model and the world's most important staple crop also forms AM symbioses, has been largely ignored for studies of the AM symbiosis. Therefore in this PhD work functional conservation of the common SYM pathway in rice was addressed and demonstrated. Mycorrhiza-specific marker genes were established that are expressed at different stages of AM development and therefore represent readouts for various AM-specific signaling events. These tools were successfully used to obtain evidence for a yet unknown signaling network comprising common SYM-dependent and -independent events. In legumes AM colonization induces common SYM signaling dependent changes in root system architecture. It was demonstrated that also in rice, root system architecture changes in response to AM colonization but these alterations occur independently of common SYM signaling. The rice root system is complex and contains three different root types. It was shown that root type identity influences the quantity of AM colonization, indicating root type specific symbiotic properties. Interestingly, the root types differed in their transcriptional responses to AM colonization and the less colonized root type responded more dramatically than the more strongly colonized root type. Finally, in an independent project a novel mutant, inhospitable (iho), was discovered. It is perturbed at the most early step of AM colonization, namely differentiation of the AM fungal hyphae into a hyphopodium at the root surface. As plant factors required for this early step are not known, identification of the IHO gene will greatly contribute to the advance of mycorrhiza RÉSUMÉ : La symbiose mycorhizienne arbusculaire (AM) est une association évolutionnairement ancienne entre la majorité des plantes terrestres et les champignons du type Glomeromycota, basée sur l'échange mutuel d'éléments nutritifs entre les deux partenaires. Son établissement structural et physiologique est un processus en plusieurs étapes, impliquant des échanges de signaux étroitement contrôlés, aboutissant à la colonisation intracellulaire des racines par le champignon. La plupart des recherches sur la biologie moléculaire et la génétique du développement de la symbiose ont été effectuées sur des légumineuses dicotylédones modèles. Dans ces dernières, une voie de signalisation, la voie SYM, s'est avérée nécessaire pour permettre la mise en place de la symbiose mycorhizienne. Chez les plantes monocotylédones, comme le riz, une des céréales les plus importantes, nourrissant la moitié de la population mondiale, peu de recherches ont été effectuées sur les bases de la cette symbiose. Dans ce travail de thèse, la conservation fonctionnelle de la voie commune SYM chez le riz a été étudiée et démontrée. De plus, des gènes marqueurs spécifiques des différentes étapes du développement de l'AM ont été identifiés, permettant ainsi d'avoir des traceurs de la colonisation. Ces outils ont été utilisés avec succès pour démontrer l'existence d'un nouveau réseau de signalisation, comprenant des éléments SYM dépendant et indépendant. Chez les légumineuses, la colonisation par les AM induit des changements dans l'architecture du système racinaire, via la signalisation SYM dépendantes. Cependant chez le riz, il a été démontré que l'architecture de système racinaire changeait suite à la colonisation de l'AM, mais ceux, de façon SYM indépendante. Le système racinaire du riz est complexe et contient trois types différents de racines. Il a été démontré que le type de racine pouvait influencer l'efficacité de la colonisation par l'AM, indiquant que les racines ont des propriétés symbiotiques spécifiques différentes. De façon surprenante, les divers types de racines répondent de différemment suite à colonisation par l'AM avec des changements de la expression des gènes. Le type de racine le moins colonisé, répondant le plus fortement a la colonisation, et inversement. En parallèle, dans un projet indépendant, un nouveau mutant, inhospitable (iho), a été identifié. Ce mutant est perturbé lors de l'étape la plus précoce de la colonisation par l'AM, à savoir la différentiation des hyphes fongiques de l'AM en hyphopodium, à la surface des racines. Les facteurs d'origine végétale requis pour cette étape étant encore inconnus, l'identification du gène IHO contribuera considérablement a accroître nos connaissance sur les bases de la mise en place de cette symbiose.
Resumo:
À l'époque classique, la notion d'identité grecque s'est constituée par rapport à celle de « barbare ». Qu'en est-il dans les deux premiers siècles de l'Empire, où la diffusion de l'hellénisme est notamment le fait de sophistes grecs d'Asie Mineure, au sein d'un Empire caractérisé par la diversité ethnique, culturelle, religieuse et linguistique, et qui prône une politique d'intégration ? Le sophiste Dion de Pruse et l'écrivain Lucien de Samosate sont deux représentants de cet hellénisme impérial qui n'étaient pas des Grecs de Grèce propre, avaient beaucoup voyagé et éprouvé des déceptions dans leurs rapports avec le pouvoir romain. Cette étude compare leur réception et leurs usages des préjugés et des modèles grecs traditionnels, ainsi que leur représentation des notions d'altérité et de barbarie. Dion et Lucien diffusent, sous des aspects différents, un hellénisme qui est construit par rapport à la grécité classique et aux préjugés archétypaux que celle-ci transmettait.
Resumo:
Résumé La cryptographie classique est basée sur des concepts mathématiques dont la sécurité dépend de la complexité du calcul de l'inverse des fonctions. Ce type de chiffrement est à la merci de la puissance de calcul des ordinateurs ainsi que la découverte d'algorithme permettant le calcul des inverses de certaines fonctions mathématiques en un temps «raisonnable ». L'utilisation d'un procédé dont la sécurité est scientifiquement prouvée s'avère donc indispensable surtout les échanges critiques (systèmes bancaires, gouvernements,...). La cryptographie quantique répond à ce besoin. En effet, sa sécurité est basée sur des lois de la physique quantique lui assurant un fonctionnement inconditionnellement sécurisé. Toutefois, l'application et l'intégration de la cryptographie quantique sont un souci pour les développeurs de ce type de solution. Cette thèse justifie la nécessité de l'utilisation de la cryptographie quantique. Elle montre que le coût engendré par le déploiement de cette solution est justifié. Elle propose un mécanisme simple et réalisable d'intégration de la cryptographie quantique dans des protocoles de communication largement utilisés comme les protocoles PPP, IPSec et le protocole 802.1li. Des scénarios d'application illustrent la faisabilité de ces solutions. Une méthodologie d'évaluation, selon les critères communs, des solutions basées sur la cryptographie quantique est également proposée dans ce document. Abstract Classical cryptography is based on mathematical functions. The robustness of a cryptosystem essentially depends on the difficulty of computing the inverse of its one-way function. There is no mathematical proof that establishes whether it is impossible to find the inverse of a given one-way function. Therefore, it is mandatory to use a cryptosystem whose security is scientifically proven (especially for banking, governments, etc.). On the other hand, the security of quantum cryptography can be formally demonstrated. In fact, its security is based on the laws of physics that assure the unconditional security. How is it possible to use and integrate quantum cryptography into existing solutions? This thesis proposes a method to integrate quantum cryptography into existing communication protocols like PPP, IPSec and the 802.l1i protocol. It sketches out some possible scenarios in order to prove the feasibility and to estimate the cost of such scenarios. Directives and checkpoints are given to help in certifying quantum cryptography solutions according to Common Criteria.
Resumo:
La notion d'intersubjectivité est au coeur des débats contemporains dans le champ de la psychologie. L'intersubjectivité traverse en effet les différentes approches de la psychologie, des neurosciences à la psychologie sociale, des perspectives développementales aux approches psychoaffectives de la personnalité, des contextes de l'apprentissage à ceux du soin. Cet ouvrage collectif, premier volume de la collection Actualités psychologiques, se propose de faire le point sur cette notion et d'apporter des pistes actuelles de compréhension aux enjeux de la place de l'autre et de l'altérité dans la construction du sujet. Des chercheurs de renommée internationale, de Suisse et de différents pays européens, apportent ici leur contribution, dans différents domaines de la psychologie, invitant au dialogue entre les modèles théoriques qui sous-tendent la notion d'intersubjectivité et entre les méthodologies qui permettent d'en appréhender la dynamique. Contribution exceptionnelle, cet ouvrage est à destination de tous, psychologues praticiens et professionnels de la relation, chercheurs et étudiants en psychologie ou dans des disciplines connexes. Il permet d'approcher l'intersubjectivité comme une notion tout à la fois familière et complexe, au service de la rencontre de l'autre.
Resumo:
In mammals, the presence of excitable cells in muscles, heart and nervous system is crucial and allows fast conduction of numerous biological information over long distances through the generation of action potentials (AP). Voltage-gated sodium channels (Navs) are key players in the generation and propagation of AP as they are responsible for the rising phase of the AP. Navs are heteromeric proteins composed of a large pore-forming a-subunit (Nav) and smaller ß-auxiliary subunits. There are ten genes encoding for Navl.l to Nav1.9 and NaX channels, each possessing its own specific biophysical properties. The excitable cells express differential combinations of Navs isoforms, generating a distinct electrophysiological signature. Noteworthy, only when anchored at the membrane are Navs functional and are participating in sodium conductance. In addition to the intrinsic properties of Navs, numerous regulatory proteins influence the sodium current. Some proteins will enhance stabilization of membrane Navs while others will favour internalization. Maintaining equilibrium between the two is of crucial importance for controlling cellular excitability. The E3 ubiquitin ligase Nedd4-2 is a well-characterized enzyme that negatively regulates the turnover of many membrane proteins including Navs. On the other hand, ß-subunits are known since long to stabilize Navs membrane anchoring. Peripheral neuropathic pain is a disabling condition resulting from nerve injury. It is characterized by the dysregulation of Navs expressed in dorsal root ganglion (DRG) sensory neurons as highlighted in different animal models of neuropathic pain. Among Navs, Nav1.7 and Nav1.8 are abundantly and specifically expressed in DRG sensory neurons and have been recurrently incriminated in nociception and neuropathic pain development. Using the spared nerve injury (SNI) experimental model of neuropathic pain in mice, I observed a specific reduction of Nedd4-2 in DRG sensory neurons. This decrease subsequently led to an upregulation of Nav1.7 and Nav1.8 protein and current, in the axon and the DRG neurons, respectively, and was sufficient to generate neuropathic pain-associated hyperexcitability. Knocking out Nedd4-2 specifically in nociceptive neurons led to the same increase of Nav1.7 and Nav1.8 concomitantly with an increased thermal sensitivity in mice. Conversely, rescuing Nedd4-2 downregulation using viral vector transfer attenuated neuropathic pain mechanical hypersensitivity. This study demonstrates the significant role of Nedd4-2 in regulating cellular excitability in vivo and its involvement in neuropathic pain development. The role of ß-subunits in neuropathic pain was already demonstrated in our research group. Because of their stabilization role, the increase of ßl, ß2 and ß3 subunits in DRGs after SNI led to increased Navs anchored at the membrane. Here, I report a novel mechanism of regulation of a-subunits by ß- subunits in vitro; ßl and ß3-subunits modulate the glycosylation pattern of Nav1.7, which might account for stabilization of its membrane expression. This opens new perspectives for investigation Navs state of glycosylation in ß-subunits dependent diseases, such as in neuropathic pain. - Chez les mammifères, la présence de cellules excitables dans les muscles, le coeur et le système nerveux est cruciale; elle permet la conduction rapide de nombreuses informations sur de longues distances grâce à la génération de potentiels d'action (PA). Les canaux sodiques voltage-dépendants (Navs) sont des participants importants dans la génération et la propagation des PA car ils sont responsables de la phase initiale de dépolarisation du PA. Les Navs sont des protéines hétéromériques composées d'une grande sous-unité a (formant le pore du canal) et de petites sous-unités ß accompagnatrices. Il existe dix gènes qui codent pour les canaux sodiques, du Nav 1.1 au Nav 1.9 ainsi que NaX, chacun possédant des propriétés biophysiques spécifiques. Les cellules excitables expriment différentes combinaisons des différents isoformes de Navs, qui engendrent une signature électrophysiologique distincte. Les Navs ne sont fonctionnels et ne participent à la conductibilité du Na+, que s'ils sont ancrés à la membrane plasmique. En plus des propriétés intrinsèques des Navs, de nombreuses protéines régulatrices influencent également le courant sodique. Certaines protéines vont favoriser l'ancrage et la stabilisation des Navs exprimés à la membrane, alors que d'autres vont plutôt favoriser leur internalisation. Maintenir l'équilibre des deux processus est crucial pour contrôler l'excitabilité cellulaire. Dans ce contexte, Nedd4-2, de la famille des E3 ubiquitin ligase, est une enzyme bien caractérisée qui régule l'internalisation de nombreuses protéines, notamment celle des Navs. Inversement, les sous-unités ß sont connues depuis longtemps pour stabiliser l'ancrage des Navs à la membrane. La douleur neuropathique périphérique est une condition débilitante résultant d'une atteinte à un nerf. Elle est caractérisée par la dérégulation des Navs exprimés dans les neurones sensoriels du ganglion spinal (DRG). Ceci a été démontré à de multiples occasions dans divers modèles animaux de douleur neuropathique. Parmi les Navs, Nav1.7 et Nav1.8 sont abondamment et spécifiquement exprimés dans les neurones sensoriels des DRG et ont été impliqués de façon récurrente dans le développement de la douleur neuropathique. En utilisant le modèle animal de douleur neuropathique d'épargne du nerf sural (spared nerve injury, SNI) chez la souris, j'ai observé une réduction spécifique des Nedd4-2 dans les neurones sensoriels du DRG. Cette diminution avait pour conséquence l'augmentation de l'expression des protéines et des courants de Nav 1.7 et Nav 1.8, respectivement dans l'axone et les neurones du DRG, et était donc suffisante pour créer l'hyperexcitabilité associée à la douleur neuropathique. L'invalidation pour le gène codant pour Nedd4-2 dans une lignée de souris génétiquement modifiées a conduit à de similaires augmentations de Nav1.7 et Nav1.8, parallèlement à une augmentation à la sensibilité thermique. A l'opposé, rétablir une expression normale de Nedd4-2 en utilisant un vecteur viral a eu pour effet de contrecarrer le développement de l'hypersensibilité mécanique lié à ce modèle de douleur neuropathique. Cette étude démontre le rôle important de Nedd4-2 dans la régulation de l'excitabilité cellulaire in vivo et son implication dans le développement des douleurs neuropathiques. Le rôle des sous-unités ß dans les douleurs neuropathiques a déjà été démontré dans notre groupe de recherche. A cause de leur rôle stabilisateur, l'augmentation des sous-unités ßl, ß2 et ß3 dans les DRG après SNI, conduit à une augmentation des Navs ancrés à la membrane. Dans mon travail de thèse, j'ai observé un nouveau mécanisme de régulation des sous-unités a par les sous-unités ß in vitro. Les sous-unités ßl et ß3 régulent l'état de glycosylation du canal Nav1.7, et stabilisent son expression membranaire. Ceci ouvre de nouvelles perspectives dans l'investigation de l'état de glycosylation des Navs dans des maladies impliquant les sous-unités ß, notamment les douleurs neuropathiques.
Resumo:
ÁBSTRACT : Mammary gland is composed of two main epithelial cell types, myoepithelial and luminal. The mechanisms involved in determination and maintenance of them remain poorly understood. Notch signaling is known to regulate cell fate determination in other tissues like skin and nervous system. It was also shown that it can act as tumor suppressor or oncogene depending on the tissue type. The mouse models overexpressing active Notch receptors indicated that Notch signaling is oncogenic in the mammary gland. This observation was followed by some descriptive and functional studies in human breast cancer and it was reported that Notch signaling activity or expression of its components are increased in some of the breast tumor samples compared to normal tissue. However, the physiological role of the Notch signaling and its downstream mechanisms in mammary gland is poorly defined. p63, a member of p53 family, has been implicated in the cell fate determination of keratinocytes. Knockout mouse models revealed that p63 is required for the formation of the mammary anlagen in embryo and its ΔN isoform is expressed exclusively in the myoepithelial layer of the adult breast. In order to understand its function in normal breast epithelial cells, I activated Notch signaling by expression of Notch1 intracellular domain (NICD) in normal primary human breast epithelial cells (HBECs). In this context, NICD reduced growth of HBECs and led to downmodulation of extracellular matrix-receptor interaction network (ECM) components as well as ΔNp63. Expression of ΔNp63 together with NICD partially rescued Notch induced growth reduction, which was correlated with an increase in ECM components. Moreover, silencing ΔNp63 in myoepithelial HBECs reduced growth similar to Notch activation and it led to downregulation of myoepithelial and upregulation of luminal markers. Complementing this observation, forced expression of ONp63 in luminal HBECs induced myoepithelial phenotype and decreased luminal markers. In vivo, by the analysis of a Notch reporter mouse strain, I showed that Notch is activated during puberty specifically at the sites of ductal morphogenesis, terminal end buds. FAGS analysis revealed that it can be detected in two different populations based on CD24 expression (low (lo) or high (high)): at lower levels in CD24lo, which includes stem/progenitor and myoepithelial cells and higher levels in CD24hi, which contains luminal cells. In parallel with in vitro results, the CD24lo mouse mammary epithelial cells displaying Notch activity have lower levels of p63 expression. Furthermore, deletion of RBPjk, the main mediator of Notch signaling, or the overexpression of ΔNp63 inhibited luminal cell lineage in vivo. Another important point revealed by Notch reporter mouse strain is the simultaneous activation of Notch with estrogen signaling during pubertal development. The expression of FOXA1, the mediator of estrogen receptor (ER) transcriptional activity, is correlated with Notch activation in vivo that it is lower in CD24lo than in CD24hi cells. Moreover, FOXA1 is regulated by NICD in vitro supporting the presence of a link between Notch and ER signaling. Taken together, I report that Notch signaling is involved in luminal cell fate determination and its effects are partially mediated through inhibition of ONp63. Besides, ΔNp63 is required for the maintenance and sufficient for the induction of myoepithelial phenotype in HBECs in vitro and is not compatible with luminal lineage in vivo. Based on these results, I propose a model for epithelial cell hierarchy in mammary gland, whereby there are two different types of luminal progenitors, early and late, displaying different levels of Notch activity. Notch signaling contributes to the determination of luminal cell lineage in these two progenitor steps: In "Early Luminal Progenitor" stage, it inhibits myoepithelial fate by decreasing p63 expression, and in "Late Luminal Progenitor" stage, Notch signaling is involved in induction of luminal lineage by acting on ER-FOXA1 axis. It has to be investigated further whether Notch signaling might behave as an oncogene or tumor suppressor depending on which cell type in the epithelial hierarchy it is modulated and which one is more likely to occur in different human breast cancer types. RÉSUMÉ : La glande mammaire est composée de deux types principaux de cellules: les cellules luminales, qui bordent le lumen et les cellules myoépithéliales, qui se trouvent entre la lame basale et les cellules luminales. Les mécanismes intervenant dans leur différenciation et leur maintenance demeurent encore mal compris. La protéine transmembranaire Notch est connue pour déterminer le destin des cellules dans plusieurs types de tissus comme la peau ou le système nerveux. Selon le type de tissu dans lequel se trouve Notch, il agira soit comme un suppresseur de tumeur soit comme un oncogène. A l'aide de modèles de souris surexprimant les récepteurs actifs de Notch, il a été démontré que la voie de signalisation de Notch est oncogénique au niveau de la glande mammaire. Des études descriptives et fonctionnelles dans le cadre du cancer du sein ont permis de mettre en évidence une augmentation de l'activité de Notch ou de l'expression de ces composants dans certains tissus cancéreux. Toutefois, le rôle physiologique de Notch et des mécanismes qu'il active restent méconnus. P63, une protéine membre de la famille p53, est impliquée dans la différenciation des kératinocytes. Le modèle issu de l'étude des souris p63 knockout a révélé que cette protéine est requise pour la formation des primordia mammaires chez l'embryon et que son isoforme ΔNp63 est exclusivement exprimée dans la couche myoépithéliale de la glande mammaire adulte. Dans le but de comprendre les fonctions physiologiques de Notch, je l'ai activé en exprimant le domaine intracellulaire de Notch 1 (NICD) dans des cellules épithéliales primaires de glande mammaire humaine (HBECs). Le NICD a alors réduit la croissance des HBECs et conduit à la régulation négative non seulement de p63 mais également des composants du réseau d'interaction des récepteurs de la matrice extracellulaire (ECM). En exprimant conjointement ΔNp63 et NICD, il est apparu que la réduction de croissance induite par Notch était partiellement compensée, et qu'il y avait également une augmentation des composants ECM. De plus, lorsque ΔNp63 a été inactivé dans les cellules HBECs myoépithéliales, une réduction de croissance cellulaire identique à celle provoquée par l'activation de Notch a pu être mise en évidence, de même qu'une régulation négative des marqueurs myoépithéliaux ainsi qu'une augmentation des marqueurs luminaux. Afin de compléter ces informations, l'expression de ΔNp63 a été forcée dans les HBECs luminales, ce qui a induit un phénotype myoépithélial et une diminution des marqueurs lumineux. In vivo, par l'analyse de souris ayant un gène rapporteur de l'activité de Notch, j'ai démontré que Notch est activé pendant la puberté au niveau des sites de la morphogenèse canalaire, à savoir les bourgeons terminaux. Les analyses par FACS (Fluorescence-activated cell sorting) basées sur l'expression de l'antigène CD24 ont révélé qu'il peut tre détecté dans deux populations différentes : une population qui l'exprime faiblement, qui regroupe les cellules souches/progéniteurs et les cellules myoépithéliales, et une population qui l'exprime fortement qui est composé des cellules luminales. Parallèlement aux résultats in vitro, j'ai mis en évidence un faible niveau d'expression de p63 dans les cellules épithéliales de la glande mammaire de souris, exprimant faiblement l'antigène CD24 et présentant une activité de Notch. De plus, la délétion de RBPjr~, médiateur principal de la signalisation de Notch, ainsi que la surexpression de ΔNp63 in vivo ont inhibé la lignée des cellules luminales. Un autre point important révélé par les souris rapporteur de l'activité de Notch a été l'activation simultanée de Notch et de la signalisation de l'oestrogène pendant le développement pubertaire. L'expression de FOXA1, médiateur de l'activité transcriptionnelle des récepteurs aux oestrogènes (ER), est en corrélation avec l'activation de Notch in vivo, plus basse dans les cellules avec une faible expression de l'antigène CD24 que dans celles avec une forte expression. De plus, FOXA1 est régulé par NICD in vitro confirmant la présence d'un lien entre Notch et la signalisation des ER. En résumé, la signalisation de Notch est impliquée dans la détermination du destin cellulaire des cellules luminales et ses effets sont partiellement modifiés par l'inhibition de ΔNp63. ΔNp63 est requis pour la maintenance et est suffisant pour l'induction du phénotype myoépithéliale dans les HBECs in vitro et ne peut donc pas se trouver dans les cellules luminales in vivo. Basé sur ces résultats, je propose un modèle de hiérarchisation des cellules épithéliales de la glande mammaire, dans lequel sont présents deux types de progéniteurs des cellules luminales exprimant des niveaux différents d'activité de Notch, les progéniteurs lumineux précoces et tardifs. La signalisation de Notch contribue à la différenciation de la lignée cellulaire luminale au niveau de ces deux progéniteurs : dans la forme précoce, il inhibe la différenciation des cellules myoépithéliales en réduisant l'expression de p63 et dans la forme tardive, Notch est impliqué dans l'induction de la lignée luminale en agissant sur l'axe ER-FOXA1. Il serait nécessaire d'investiguer plus loin si le fait que Notch agisse comme oncogène ou suppresseur de tumeur dépend du stade de différenciation de la cellule dans laquelle il est modulé et laquelle de ces deux fonctions il est le plus probable de rencontrer dans les différents types de cancer du sein.