1000 resultados para Croisement de banques de données


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molecular shape has long been known to be an important property for the process of molecular recognition. Previous studies postulated the existence of a drug-like shape space that could be used to artificially bias the composition of screening libraries, with the aim to increase the chance of success in Hit Identification. In this work, it was analysed to which extend this assumption holds true. Normalized Principal Moments of Inertia Ratios (NPRs) have been used to describe the molecular shape of small molecules. It was investigated, whether active molecules of diverse targets are located in preferred subspaces of the NPR shape space. Results illustrated a significantly stronger clustering than could be expected by chance, with parts of the space unlikely to be occupied by active compounds. Furthermore, a strong enrichment of elongated, rather flat shapes could be observed, while globular compounds were highly underrepresented. This was confirmed for a wide range of small molecule datasets from different origins. Active compounds exhibited a high overlap in their shape distributions across different targets, making a purely shape­ based discrimination very difficult. An additional perspective was provided by comparing the shapes of protein binding pockets with those of their respective ligands. Although more globular than their ligands, it was observed that binding sites shapes exhibited a similarly skewed distribution in shape space: spherical shapes were highly underrepresented. This was different for unoccupied binding pockets of smaller size. These were on the contrary identified to possess a more globular shape. The relation between shape complementarity and exhibited bioactivity was analysed; a moderate correlation between bioactivity and parameters including pocket coverage, distance in shape space, and others could be identified, which reflects the importance of shape complementarity. However, this also suggests that other aspects are of relevance for molecular recognition. A subsequent analysis assessed if and how shape and volume information retrieved from pocket or respective reference ligands could be used as a pre-filter in a virtual screening approach. ln Lead Optimization compounds need to get optimized with respect to a variety of pararneters. Here, the availability of past success stories is very valuable, as they can guide medicinal chemists during their analogue synthesis plans. However, although of tremendous interest for the public domain, so far only large corporations had the ability to mine historical knowledge in their proprietary databases. With the aim to provide such information, the SwissBioisostere database was developed and released during this thesis. This database contains information on 21,293,355 performed substructural exchanges, corresponding to 5,586,462 unique replacements that have been measured in 35,039 assays against 1,948 molecular targets representing 30 target classes, and on their impact on bioactivity . A user-friendly interface was developed that provides facile access to these data and is accessible at http//www.swissbioisostere.ch. The ChEMBL database was used as primary data source of bioactivity information. Matched molecular pairs have been identified in the extracted and cleaned data. Success-based scores were developed and integrated into the database to allow re-ranking of proposed replacements by their past outcomes. It was analysed to which degree these scores correlate with chemical similarity of the underlying fragments. An unexpectedly weak relationship was detected and further investigated. Use cases of this database were envisioned, and functionalities implemented accordingly: replacement outcomes are aggregatable at the assay level, and it was shawn that an aggregation at the target or target class level could also be performed, but should be accompanied by a careful case-by-case assessment. It was furthermore observed that replacement success depends on the activity of the starting compound A within a matched molecular pair A-B. With increasing potency the probability to lose bioactivity through any substructural exchange was significantly higher than in low affine binders. A potential existence of a publication bias could be refuted. Furthermore, often performed medicinal chemistry strategies for structure-activity-relationship exploration were analysed using the acquired data. Finally, data originating from pharmaceutical companies were compared with those reported in the literature. It could be seen that industrial medicinal chemistry can access replacement information not available in the public domain. In contrast, a large amount of often-performed replacements within companies could also be identified in literature data. Preferences for particular replacements differed between these two sources. The value of combining different endpoints in an evaluation of molecular replacements was investigated. The performed studies highlighted furthermore that there seem to exist no universal substructural replacement that always retains bioactivity irrespective of the biological environment. A generalization of bioisosteric replacements seems therefore not possible. - La forme tridimensionnelle des molécules a depuis longtemps été reconnue comme une propriété importante pour le processus de reconnaissance moléculaire. Des études antérieures ont postulé que les médicaments occupent préférentiellement un sous-ensemble de l'espace des formes des molécules. Ce sous-ensemble pourrait être utilisé pour biaiser la composition de chimiothèques à cribler, dans le but d'augmenter les chances d'identifier des Hits. L'analyse et la validation de cette assertion fait l'objet de cette première partie. Les Ratios de Moments Principaux d'Inertie Normalisés (RPN) ont été utilisés pour décrire la forme tridimensionnelle de petites molécules de type médicament. Il a été étudié si les molécules actives sur des cibles différentes se co-localisaient dans des sous-espaces privilégiés de l'espace des formes. Les résultats montrent des regroupements de molécules incompatibles avec une répartition aléatoire, avec certaines parties de l'espace peu susceptibles d'être occupées par des composés actifs. Par ailleurs, un fort enrichissement en formes allongées et plutôt plates a pu être observé, tandis que les composés globulaires étaient fortement sous-représentés. Cela a été confirmé pour un large ensemble de compilations de molécules d'origines différentes. Les distributions de forme des molécules actives sur des cibles différentes se recoupent largement, rendant une discrimination fondée uniquement sur la forme très difficile. Une perspective supplémentaire a été ajoutée par la comparaison des formes des ligands avec celles de leurs sites de liaison (poches) dans leurs protéines respectives. Bien que plus globulaires que leurs ligands, il a été observé que les formes des poches présentent une distribution dans l'espace des formes avec le même type d'asymétrie que celle observée pour les ligands: les formes sphériques sont fortement sous­ représentées. Un résultat différent a été obtenu pour les poches de plus petite taille et cristallisées sans ligand: elles possédaient une forme plus globulaire. La relation entre complémentarité de forme et bioactivité a été également analysée; une corrélation modérée entre bioactivité et des paramètres tels que remplissage de poche, distance dans l'espace des formes, ainsi que d'autres, a pu être identifiée. Ceci reflète l'importance de la complémentarité des formes, mais aussi l'implication d'autres facteurs. Une analyse ultérieure a évalué si et comment la forme et le volume d'une poche ou de ses ligands de référence pouvaient être utilisés comme un pré-filtre dans une approche de criblage virtuel. Durant l'optimisation d'un Lead, de nombreux paramètres doivent être optimisés simultanément. Dans ce contexte, la disponibilité d'exemples d'optimisations réussies est précieuse, car ils peuvent orienter les chimistes médicinaux dans leurs plans de synthèse par analogie. Cependant, bien que d'un extrême intérêt pour les chercheurs dans le domaine public, seules les grandes sociétés pharmaceutiques avaient jusqu'à présent la capacité d'exploiter de telles connaissances au sein de leurs bases de données internes. Dans le but de remédier à cette limitation, la base de données SwissBioisostere a été élaborée et publiée dans le domaine public au cours de cette thèse. Cette base de données contient des informations sur 21 293 355 échanges sous-structuraux observés, correspondant à 5 586 462 remplacements uniques mesurés dans 35 039 tests contre 1948 cibles représentant 30 familles, ainsi que sur leur impact sur la bioactivité. Une interface a été développée pour permettre un accès facile à ces données, accessible à http:/ /www.swissbioisostere.ch. La base de données ChEMBL a été utilisée comme source de données de bioactivité. Une version modifiée de l'algorithme de Hussain et Rea a été implémentée pour identifier les Matched Molecular Pairs (MMP) dans les données préparées au préalable. Des scores de succès ont été développés et intégrés dans la base de données pour permettre un reclassement des remplacements proposés selon leurs résultats précédemment observés. La corrélation entre ces scores et la similarité chimique des fragments correspondants a été étudiée. Une corrélation plus faible qu'attendue a été détectée et analysée. Différents cas d'utilisation de cette base de données ont été envisagés, et les fonctionnalités correspondantes implémentées: l'agrégation des résultats de remplacement est effectuée au niveau de chaque test, et il a été montré qu'elle pourrait également être effectuée au niveau de la cible ou de la classe de cible, sous réserve d'une analyse au cas par cas. Il a en outre été constaté que le succès d'un remplacement dépend de l'activité du composé A au sein d'une paire A-B. Il a été montré que la probabilité de perdre la bioactivité à la suite d'un remplacement moléculaire quelconque est plus importante au sein des molécules les plus actives que chez les molécules de plus faible activité. L'existence potentielle d'un biais lié au processus de publication par articles a pu être réfutée. En outre, les stratégies fréquentes de chimie médicinale pour l'exploration des relations structure-activité ont été analysées à l'aide des données acquises. Enfin, les données provenant des compagnies pharmaceutiques ont été comparées à celles reportées dans la littérature. Il a pu être constaté que les chimistes médicinaux dans l'industrie peuvent accéder à des remplacements qui ne sont pas disponibles dans le domaine public. Par contre, un grand nombre de remplacements fréquemment observés dans les données de l'industrie ont également pu être identifiés dans les données de la littérature. Les préférences pour certains remplacements particuliers diffèrent entre ces deux sources. L'intérêt d'évaluer les remplacements moléculaires simultanément selon plusieurs paramètres (bioactivité et stabilité métabolique par ex.) a aussi été étudié. Les études réalisées ont souligné qu'il semble n'exister aucun remplacement sous-structural universel qui conserve toujours la bioactivité quel que soit le contexte biologique. Une généralisation des remplacements bioisostériques ne semble donc pas possible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] Caractéristiques des naissances, 1979-1985. Evolution séculaire des mortalités néonatale, post-néonatale et infantile par sexe, 1901-1987 (données quinquennales). Evolution de la mortinatalité par sexe, 1969-1987. Taux de mortalité, canton de Valais, 1979-1985(87).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction générale : Depuis peu, la colère gronde au sein des actionnaires. Certains d'entre eux s'estiment écartés à tort de certaines décisions importantes et se plaignent de ne pouvoir exercer aucune influence sur la façon dont est gérée la société, dont ils sont pourtant propriétaires. Ce sentiment d'impuissance et même d'injustice est exacerbé par l'octroi, à certains dirigeants parfois peu scrupuleux, de rémunérations astronomiques et en décalage avec les résultats obtenus. Bien que l'assemblée générale soit, aux termes de l'art. 698 al. 1 CO, le pouvoir suprême de la société, les administrateurs et les directeurs donnent l'impression d'être omnipotents et exempts de toute responsabilité Certains actionnaires estiment en d'autres termes que les sociétés anonymes souffrent d'un manque de contrôle. Ce sentiment correspond-il à la réalité ? Notre étude tente de répondre à cette question en examinant l'éventuel rapport hiérarchique entre l'assemblée générale et le conseil d'administration, les devoirs de ce dernier, les conditions auxquelles il peut déléguer la gestion, enfin, la responsabilité de ses membres. Face à l'ampleur du sujet, nous avons été contraint d'effectuer des choix, forcément arbitraires. Nous avons décidé d'écarter la problématique des groupes de sociétés. De même, les législations sur les bourses, les banques et les fusions ne seront que mentionnées. Signalons enfin que certaines problématiques abordées par notre étude occupent actuellement le législateur. Nous avons dès lors tenu compte des travaux préparatoires effectués jusqu'à la fin de l'année 2008. Nous commencerons par étudier dans une première partie les relations et l'éventuel rapport hiérarchique entre l'assemblée générale, pouvoir suprême de la société, et le conseil d'administration, chargé d'exercer la haute direction et de gérer les affaires de la société. La détermination de leurs positions hiérarchiques respectives devrait nous permettre de savoir si et comment l'assemblée générale peut s'immiscer dans les compétences du conseil d'administration. Nous nous intéresserons ensuite à la gestion de la société, le législateur postulant qu'elle doit être conjointement exercée par tous les membres du conseil d'administration dans la mesure où elle n'a pas été déléguée. Or, comme un exercice conjoint par tous les administrateurs ne convient qu'aux plus petites sociétés anonymes, la gestion est très fréquemment déléguée en pratique. Nous examinerons ainsi les conditions formelles et les limites matérielles de la délégation de la gestion. Nous étudierons en particulier les portées et contenus respectifs de l'autorisation statutaire et du règlement d'organisation, puis passerons en revue la liste de compétences intransmissibles et inaliénables du conseil d'administration dressée par l'art. 716a al. 1 CO. Nous nous attarderons ensuite sur les différents destinataires de la délégation en insistant sur la flexibilité du système suisse, avant de considérer la problématique du cumul des fonctions à la tête de la société, et de nous demander si la gestion peut être déléguée à l'assemblée générale. Nous conclurons la première partie en étudiant la manière dont l'assemblée générale peut participer à la gestion de la société, et exposerons à cet égard les récentes propositions du Conseil fédéral. Dans une deuxième partie, nous constaterons que face à l'ampleur et à la complexité des tâches qui lui incombent, il est aujourd'hui largement recommandé au conseil d'administration d'une grande société de mettre en place certains comités afin de rationnaliser sa façon de travailler et d'optimiser ainsi ses performances. Contrairement aux développements menés dans la première partie, qui concernent toutes les sociétés anonymes indépendamment de leur taille, ceux consacrés aux comités du conseil d'administration s'adressent principalement aux sociétés ouvertes au public et aux grandes sociétés non cotées. Les petites et moyennes entreprises seraient toutefois avisées de s'en inspirer. Nous traiterons de la composition, du rôle et des tâches de chacun des trois comités usuels que sont le comité de contrôle, le comité de rémunération et le comité de nomination. Nous exposerons à cet égard les recommandations du Code suisse de bonne pratique pour le gouvernement d'entreprise ainsi que certaines règles en vigueur en Grande-Bretagne et aux Etats-Unis, états précurseurs en matière de gouvernement d'entreprise. L'étude des tâches des comités nous permettra également de déterminer l'étendue de leur propre pouvoir décisionnel. Nous aborderons enfin la problématique particulièrement sensible de la répartition des compétences en matière de rémunération des organes dirigeants. Notre troisième et dernière partie sera consacrée à la responsabilité des administrateurs. Nous exposerons dans un premier temps le système de la responsabilité des administrateurs en général, en abordant les nombreuses controverses dont il fait l'objet et en nous inspirant notamment des récentes décisions du Tribunal fédéral. Comme la gestion n'est que rarement exercée conjointement par tous les administrateurs, nous traiterons dans un deuxième temps de la responsabilité des administrateurs qui l'ont déléguée. A cet égard, nous nous arrêterons également sur les conséquences d'une délégation ne respectant pas les conditions formelles. Nous terminerons notre travail par l'étude de la responsabilité des administrateurs en rapport avec les tâches confiées à un comité de conseil d'administration. Comme le conseil d'administration a des attributions intransmissibles et inaliénables et que les principes d'un bon gouvernement d'entreprise lui recommandent de confier certaines de ces tâches à des comités spécialisés, il s'agit en effet de déterminer si et dans quelle mesure une répartition des tâches au sein du conseil d'administration entraîne une répartition des responsabilités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La faune amphibienne du bassin de l'Aubonne et de ses affluents entre Ballens et Allaman a été recensée durant deux campagnes de terrain en 2000 et 2001. Douze espèces d'amphibiens ont été observées sur 63 sites répartis sur près de 130 km2. Plus des deux tiers des espèces amphibiennes de Suisse sont représentées dans le secteur 1Laboratoire de Biologie de la Conservation, Institut d'Ecologie, Bâtiment de Biologie CH-1015 Dorigny E-mail: Jerome.Pellet@ie-zea.unil.ch CODEN: BSVAA6 © Société vaudoise des Sciences naturelles Droits de reproduction réservés 42 J. Pellet, S. Dubey et S. Hoehn étudié. Des cartes illustrent la distribution de chaque espèce. Une régression logistique appliquée à chaque espèce tente de mettre en évidence une relation entre les données de présence et 23 paramètres d'habitats mesurés dans 48 sites. Dans 5 cas, un ou deux paramètres d'habitat peuvent être mis en relation avec la répartition de l'amphibien en question. Ainsi, le crapaud commun est positivement corrélé avec la proportion de végétation érigée recouvrant les plans d'eau et négativement corrélé avec l'altitude. Le crapaud calamite est lui fortement lié aux paysages rudéraux et gravières, tandis que la répartition des grenouilles rousses et rieuses est limitée par l'altitude. La rainette verte semble éviter les plans d'eau où la conductivité est trop élevée. Indication dans un paysage rural d'une charge en nitrates, la conductivité d'un plan d'eau peut être considérée comme une mesure indirecte de sa pollution organique. Un suivi du secteur prospecté permettra de connaître l'évolution des populations de chaque espèce présente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L'emploi et les conditions de travail ont une grande incidence sur l'équité en santé", note l'Organisation mondiale de la santé (OMS) dans un rapport publié en 2008: ils font partie des principaux déterminants sociaux "à l'origine d'une grande part des inégalités en santé observées entre pays et dans les pays". Ce constat se fonde sur un vaste corpus d'enquêtes et de recherches menées à l'échelle internationale, dont le renouveau ces trois dernières décennies a été stimulé par l'explosion du chômage et de la précarisation de l'emploi, ainsi que par l'intensification du travail. Pour la première fois, une vue chiffrée d'ensemble de cette problématique est également disponible pour la Suisse, basée sur les données de la dernière enquête suisse sur la santé, réalisée en 2007 par l'Office fédéral de la statistique (OFS). L'étude dont nous présentons ici les résultats cherche à répondre à trois questions?: 1) Quelles sont les conditions de travail à risque (physique ou psycho-social) les plus fréquentes? Qui y est le plus exposé, en fonction notamment du sexe, de la position sociale ou de la branche d'activité? 2) Quelles associations peut-on mettre en évidence entre ces conditions de travail et l'état de santé? 3) Quels sont les liens entre le fait d'être au chômage ou de craindre pour son emploi et l'état de santé? Les données analysées révèlent un lien significatif entre les conditions de travail à risques, plus fréquentes que souvent admis, et une santé dégradée chez les personnes concernées. L'association est encore plus forte avec le fait d'être au chômage. Ces réalités sont souvent passées sous silence, en Suisse encore plus qu'ailleurs. Cette étude contribue à les rendre visibles et à instruire ainsi le débat nécessaire sur les conditions économiques et sociales de leur changement. Débat dont l'actualité est redoublée par les conséquences dramatiques sur l'emploi et sur les conditions de travail de l'actuelle crise économique internationale. [Ed.]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cancer-testis antigènes appartiennent à la famille des antigènes tumoraux spécifiques. Ils ont montré un pouvoir immunogène chez les patients porteurs de différents cancers. En effet, ils stimulent sélectivement les lymphocytes cytotoxiques, et leur expression spécifique dans les tissus tumoraux en fait une cible idéale pour une vaccination antitumorale. Le but de cette étude est d'identifier l'expression de certains de ces antigènes, d'analyser leur valeur pronostique et de déterminer la meilleure cible antigénique pour permettre une immunothérapie spécifique dans les carcinomes épidermoïdes des voies aérodigestives supérieures. Le profil et le taux d'expression de 12 cancer-testis antigènes (MAGE-A1, MAGE-A3, MAGE-A4, MAGEA10, MAGE-C2, NY-ESO-1, LAGE-1, SSX-2, SSX-4, BAGE, GAGE-1/2, GAGE-3/4) et de 3 autres antigènes tumoraux spécifiques (PRAME, HERV-K-MEL, NA-17A) ont été évalués par RT-PCR sur 57 échantillons de cancers ORL primaires. Les paramètres tumoraux et cliniques ont été prospectivement collectés afin de corréler ces données avec le résultat de nos investigations immunobiologiques. Quatre-vingt-huit pour cent des tumeurs expriment au moins 1 antigène. Une co-expression de 3 gènes ou plus est détectée chez 59% des patients. MAGE-A4 (60%), MAGE-A3 (51%), PRAME (49%) et HERV-K-MEL (42%) sont les gènes le plus fréquemment exprimés. Ils sont totalement absents des muqueuses saines avoisinantes. La présence de MAGE-A et NY-ESO-1 à la surface des cellules a été vérifiée par immunohistochimie. Nos analyses statistiques ont permis d'identifier une diminution de la survie liée au cancer chez les patients porteurs d'une tumeur exprimant de multiples cancer-testis antigènes et notamment MAGE-A4 dont l'expression indépendante d'autres éléments cliniques s'associe statistiquement à un taux de survie diminué. Nos résultats ont permis d'identifier un rôle pronostique de l'expression des gènes associés aux tumeurs dont l'expression est apparemment liée à un phénotype de malignité plus élevé. Cette constatation, corroborée par l'identification parallèle d'un infiltrat lymphocytaire spécifique confirme l'utilité potentielle de certains cancer-testis antigènes comme cible pour une immunothérapie ciblée dans les carcinomes des voies aérodigestives supérieures

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : La stimulation du nerf vague est une technique neurochirurgicale qui consiste en l'implantation d'une électrode envoyant des impulsions autours de celui-ci. Depuis l'approbation de la FDA en 1997 aux Etats-Unis, elle est utilisée chez certains patients épileptiques pharmaco-résistants et dont la chirurgie classique n'est pas envisageable [1], Par exemple lorsque qu'aucun foyer épileptique n'est identifiable, qu'une zone éloquente du cortex est atteinte ou encore qu'il y a de multiples points de départ. On parle généralement de patient « répondeur » lorsqu'une diminution de plus de 50% des crises est observée après l'opération. La proportion de patients répondeurs est estimée entre 20 à 50% [2], avec une action positive sur l'éveil [3]. Le mécanisme d'action de cette thérapie reste largement inconnu même si quelques ébauches d'hypothèses ont été formulées, notamment une action inhibitrice sur le noyau solitaire du nerf vague qui pourrait avoir comme effet de moduler des projections ascendantes diffuses via le locus coeruleus [3, 4]. Objectifs : Le but de ce travail est d'observer les effets de la stimulation du nerf vague sur le métabolisme cérébral et potentiellement d'élaborer des hypothèses sur le mécanisme d'action de ce traitement. Il faudra plus précisément s'intéresser au tronc cérébral, contenant le locus coeruleus (métabolisme de la noradrénaline) et aux noyaux du raphé (métabolisme de la sérotonine), deux neurotransmetteurs avec effet antiépileptique [5]. Le but sera également d'établir des facteurs prédictifs sur la façon de répondre d'un patient à partir d'une imagerie cérébrale fonctionnelle avant implantation, notamment au niveau du métabolisme cortical, particulièrement frontal (éveil) sera intéressant à étudier. Méthodes : Un formulaire d'information ainsi que de consentement éclairé sera remis à chaque patient avant inclusion dans l'étude. Les informations de chaque patient seront également inscrites dans un cahier d'observation (Case Report Form, CRF). Le travail s'organisera essentiellement sur deux populations. Premièrement, chez les patients déjà opérés avec un stimulateur en marche, nous réaliserons qu'une imagerie PET au F-18-fluorodeoxyglucose (FDG) post-opératoire qui seront comparés à une base de données de patients normaux (collaboration Dr E. Guedj, AP-HM, La Timone, Marseille). Nous confronterons également les images de ces patients entre elles, en opposant les répondeurs (diminution des crises de ≥50%) aux non-répondeurs. Deuxièmement, les patients non encore opérés auront un examen PET basal avant implantation et 3-6 mois après la mise en marche du stimulateur. Nous évaluerons alors les éventuelles modifications entre ces deux imageries PET, à la recherche de différences entre les répondeurs et non-répondeurs, ainsi que de facteurs prédictifs de bonne réponse dans l'imagerie de base. Toutes les comparaisons d'images seront effectuées grâce avec le programme d'analyse SPM08. Résultats escomptés : Nous espérons pouvoir mettre en évidence des modifications du métabolisme cérébral au FDG sur la base de ces différentes images. Ces constatations pourraient nous permettre de confirmer ou d'élargir les hypothèses physiologiques quant aux effets du traitement par stimulation vagale. Nous aimerions, de plus, amener à définir des facteurs prédictifs sur la façon de répondre d'un patient au traitement à l'aide du PET au F-18-FDG de départ avant implantation. Plus value escomptée : Ces résultats pourront donner des pistes supplémentaires quant au fonctionnement de la stimulation vagale chez les patients avec épilepsie réfractaire et servir de base à de nouvelles recherches dans ce domaine. Ils pourraient aussi donner des éléments pronostics avant l'implantation pour aider la sélection des patients pouvant bénéficier de ce type de thérapie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.