168 resultados para modélisation théorique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pratique verbale à la fois familière et fondamentale dans les sociétés démocratiques contemporaines, le débat reste paradoxalement peu connu et peu étudié en tant que tel. L'ouvrage propose de plonger au coeur de cette pratique et d'opérer ce travail à deux niveaux étroitement articulés. À un niveau théorique, le débat pose certaines questions aux sciences du langage et à la sociologie de l'action. L'auteur s'attache à y répondre en approchant les pratiques verbales à l'articulation des perspectives textuelle (problématique de l'enchaînement des énoncés) et interactionnelle (problématique des dynamiques au travers desquelles les agents gèrent leur relation). Le caractère multimodal de ces pratiques est également considéré, qu'il s'agisse de l'articulation oral-écrit, du lien entre parole et mimo-gestualité ou encore de la répartition des participants dans l'espace. À un niveau pratique, la spécificité du débat repose sur certains observables qu'il s'agit d'identifier et de décrire et qui permettent de distinguer le débat d'autres formes de comportement, telles que l'anecdote, la discussion ou la dispute. Par l'analyse de nombreux exemples tirés d'interactions publiques, l'ouvrage montre en quoi la pratique de l'argumentation et l'inscription langagière de certaines identités apparaissent comme les deux ressources fondamentales d'accomplissement et de reconnaissance de la pratique du débat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary The specific CD8+ T cell immune response against tumors relies on the recognition by the T cell receptor (TCR) on cytotoxic T lymphocytes (CTL) of antigenic peptides bound to the class I major histocompatibility complex (MHC) molecule. Such tumor associated antigenic peptides are the focus of tumor immunotherapy with peptide vaccines. The strategy for obtaining an improved immune response often involves the design of modified tumor associated antigenic peptides. Such modifications aim at creating higher affinity and/or degradation resistant peptides and require precise structures of the peptide-MHC class I complex. In addition, the modified peptide must be cross-recognized by CTLs specific for the parental peptide, i.e. preserve the structure of the epitope. Detailed structural information on the modified peptide in complex with MHC is necessary for such predictions. In this thesis, the main focus is the development of theoretical in silico methods for prediction of both structure and cross-reactivity of peptide-MHC class I complexes. Applications of these methods in the context of immunotherapy are also presented. First, a theoretical method for structure prediction of peptide-MHC class I complexes is developed and validated. The approach is based on a molecular dynamics protocol to sample the conformational space of the peptide in its MHC environment. The sampled conformers are evaluated using conformational free energy calculations. The method, which is evaluated for its ability to reproduce 41 X-ray crystallographic structures of different peptide-MHC class I complexes, shows an overall prediction success of 83%. Importantly, in the clinically highly relevant subset of peptide-HLAA*0201 complexes, the prediction success is 100%. Based on these structure predictions, a theoretical approach for prediction of cross-reactivity is developed and validated. This method involves the generation of quantitative structure-activity relationships using three-dimensional molecular descriptors and a genetic neural network. The generated relationships are highly predictive as proved by high cross-validated correlation coefficients (0.78-0.79). Together, the here developed theoretical methods open the door for efficient rational design of improved peptides to be used in immunotherapy. Résumé La réponse immunitaire spécifique contre des tumeurs dépend de la reconnaissance par les récepteurs des cellules T CD8+ de peptides antigéniques présentés par les complexes majeurs d'histocompatibilité (CMH) de classe I. Ces peptides sont utilisés comme cible dans l'immunothérapie par vaccins peptidiques. Afin d'augmenter la réponse immunitaire, les peptides sont modifiés de façon à améliorer l'affinité et/ou la résistance à la dégradation. Ceci nécessite de connaître la structure tridimensionnelle des complexes peptide-CMH. De plus, les peptides modifiés doivent être reconnus par des cellules T spécifiques du peptide natif. La structure de l'épitope doit donc être préservée et des structures détaillées des complexes peptide-CMH sont nécessaires. Dans cette thèse, le thème central est le développement des méthodes computationnelles de prédiction des structures des complexes peptide-CMH classe I et de la reconnaissance croisée. Des applications de ces méthodes de prédiction à l'immunothérapie sont également présentées. Premièrement, une méthode théorique de prédiction des structures des complexes peptide-CMH classe I est développée et validée. Cette méthode est basée sur un échantillonnage de l'espace conformationnel du peptide dans le contexte du récepteur CMH classe I par dynamique moléculaire. Les conformations sont évaluées par leurs énergies libres conformationnelles. La méthode est validée par sa capacité à reproduire 41 structures des complexes peptide-CMH classe I obtenues par cristallographie aux rayons X. Le succès prédictif général est de 83%. Pour le sous-groupe HLA-A*0201 de complexes de grande importance pour l'immunothérapie, ce succès est de 100%. Deuxièmement, à partir de ces structures prédites in silico, une méthode théorique de prédiction de la reconnaissance croisée est développée et validée. Celle-ci consiste à générer des relations structure-activité quantitatives en utilisant des descripteurs moléculaires tridimensionnels et un réseau de neurones couplé à un algorithme génétique. Les relations générées montrent une capacité de prédiction remarquable avec des valeurs de coefficients de corrélation de validation croisée élevées (0.78-0.79). Les méthodes théoriques développées dans le cadre de cette thèse ouvrent la voie du design de vaccins peptidiques améliorés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le juge est un acteur jusqu'ici sous-estimé des politiques publiques. Son interprétation de la loi peut avoir des effets très importants sur le déroulement du cycle des politiques publiques. La présente étude se propose de mettre en lumière ces effets. La partie théorique propose d'abord une grille d'analyse des rapports entre le droit et la politique pour mieux décrire le champ d'activité dans lequel le juge évolue. Ensuite, elle formule une théorie explicative du comportement du juge en le présentant comme un acteur essentiellement libre, mais soumis à des contraintes factuelles qui le canalisent. L'analyse de deux cas concrets (la lutte contre le hooliganisme et les naturalisations aux urnes) permet de tester les modèles élaborés dans la partie théorique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ampleur de la crise actuelle est une épreuve de vérité pour la mondialisation. Les États et les organisations intergouvernementales sont-ils vraiment impuissants pour en redéfinir les règles et mieux contrôler la démesure des intérêts privés ? Quels sont les transferts d'autorité en jeu dans la régulation de la mondialisation, sur quoi portent-ils, comment procèdent-ils, au bénéfice de qui s'effectuent-ils, sur la base de quelles garanties ? L'ouvrage aborde ces questions sous l'angle historique, théorique et empirique. Après une présentation de la profondeur historique et des cadres d'analyse de la gouvernance de la mondialisation, l'étude porte sur ses grands domaines : monnaie, finance et développement ; production, travail et migrations ; commerce et harmonisation des conditions de l'échange ; santé, environnement et gouvernance du vivant. S'inscrivant dans le renouveau interdisciplinaire de l'économie politique internationale, ce livre dépasse l'approche traditionnelle des organisations internationales, fondée sur le droit et/ou la politique de puissance des États.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Basé sur les psychothérapies cognitives des psychoses, Michael's Game est un jeu de cartes qui propose à des patients de s'entraîner au raisonnement par hypothèses. Après une présentation théorique du jeu (cadre, déroulement, bénéfices attendus pour les patients...) les auteurs illustrent avec des réactions d'un groupe de patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la schizophrénie, la religion a surtout été étudiée sous son aspect pathologique. Or, de nombreux patients s'appuient sur leurs ressources spirituelles pour faire face à leur maladie. Nous avons développé une grille d'entretien pour évaluer les relations entre spiritualité, pratiques religieuses et coping. Cet instrument a démontré que la religion a des effets positifs pour 71% et négatifs pour 14% des 115 patients évalués. La religion influence l'image de soi, les symptômes, l'adaptation psychosociale, la toxicomanie, les tentatives de suicide et l'adhérence au traitement. Elle devrait donc être systématiquement évaluée par le praticien. Notre instrument a démontré une bonne fidélité inter-juge et une validité théorique. Il ne nécessite pas de formation préalable. C'est pourquoi, nous le mettons à disposition des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME« L'insertion sociale plurielle des femmes cadres supérieurs en Suisse. Contribution à l'étude du bien-être subjectif au quotidien. Approche intégrative qualitative. »Depuis une quarantaine d'années, nombreux sont les travaux qui étudient les relations entre les différents milieux de vie au quotidien et, plus particulièrement, l'impact de leurs articulations singulières sur la santé. Nous y identifions deux axes principaux : l'un aborde ce phénomène selon une perspective de « conflit travail-famille » en termes de « stress », l'autre se focalise davantage sur la promotion du « bien-être » au travers d'une approche d'« équilibre travail-vie ». Or, l'ensemble de ces recherches considère comme «pathogènes» les désajustements, les contradictions et les tensions vécus au quotidien. Selon cette tendance, le « bien-être » apparaît comme un état d'équilibre ultime indépendant du contexte de vie du sujet. Toutefois, peu de recherches portent sur la dimension située du bien-être dans son rapport à l'activité concrète au sein des milieux deNotre étude s'intéresse à cette question auprès des femmes cadres supérieurs, selon une perspective critique et développementale en psychologie de la santé (Lyons & Chamberlain, 2006 ; Santiago-Delefosse, 2002,2011 ; Malrieu, 1989 ; Vygotski, 1985). En effet, cette population constitue un terrain privilégié pour comprendre le sens donné à l'activité à partir des contraintes, responsabilités et demandes perçues dans des contextes parfois contradictoires, et pour analyser le rôle de ces derniers dans un bien-être subjectif.En cohérence avec notre positionnement théorique, nous avons mené des entretiens qualitatifs focalisés sur l'activité quotidienne auprès de 20 femmes, et ceci en deux temps (T1-T2) (40 entretiens). Les résultats issus des analyses du contenu des discours permettent de définir le vécu de l'articulation des milieux de vie chez nos participantes, selon trois axes à la fois interdépendants et autonomes. Chaque axe se définit par une série de supports spécifiques jouant un rôle structurant dans leur bien-être subjectif. Ainsi, le premier axe se caractérise par des supports de maîtrise subjective, ainsi que par l'appropriation de contraintes sociales et corporelles, selon un rythme de l'activité soutenu. Le deuxième s'accompagne de supports qui favorisent la prise de distance au travers du relâchement du rythme et du lâcher prise de la maîtrise, par la création d'espaces personnels et sociaux « pour soi ». Enfin, le troisième porte sur le positionnement de soi par rapport à autrui en termes de « personnalisation ».Construits en rapport à la corporéité et à autrui au sein de contextes spécifiques, ces différents supports prennent leur sens au sein d'un système de pratiques global, unique pour chaque femme. Selon cette conception critique, le bien-être subjectif chez les femmes cadres se définit comme le fruit d'un processus mouvant issu des tensions vécues entre les trois axes de l'articulation des milieux de vie. Il est par conséquent social, corporel et psychologique.Nos résultats ouvrent des perspectives de recherche et d'intervention, notamment en santé et travail. Ces ouvertures sont orientées vers une approche intégrative en psychologie de la santé, c'est-à-dire, de la prise en compte dans des questions de santé et de bien-être du processus de construction du sujet en relation à son insertion sociale plurielle.ABSTRACT« Plural social participation among women senior managers in Switzerland. Contribution to the study of subjective well-being in everyday life. An integrative and qualitativeapproach.»For the last forty years, a large body of literature has studied the relationships between different social realms in everyday life and, more particularly, the impact of their singular intertwinements with health. We identify two main trends : The first one focuses on this phenomenon through the « work-family conflict » perspective in terms of « stress » whilst the second one is more concerned by the promotion of « well-being » through a « work-life balance » approach. However, both of these trends consider disadjustments, contradictions and tensions in everyday life as « pathogenic ». According to this conception, « well- being » appears as an ultimate state of balance which is indépendant from the subject's life context. Nevertheless, few studies have examined the situated dimension of well-being in its link to concrete activity in social realms.Our research is concerned with this issue among women senior managers from a critical and developmental perspective in Health Psychology (Lyons & Chamberlain, 2006 ; Santiago-Delefosse, 2002, 2011 ; Malrieu, 1989 ; Vygotski, 1985). In fact, this population represents a favourable field so as to study : how the meaning of daily activity is constructed accross different and often conflictive social realms ; to understand the many ways in which this population deals with perceived constraints, responsibilities and requests, and to analyse the role of situated plural activity in subjective well-being.Consitent with our theoretical framework, we have designed a qualitative method. We have conducted two-time (T1-T2) interviews with 20 women by focusing on their daily activity (40 interviews). The Thematic Content Analysis reveals that four different social realms are articulated among our participants through three main axes, which are at the same time interdependent and autonomous. Each one of these axis is defined by a certain number of specific supports that play an important role in these women's subjective well- being. The first axis is concerned by several supports that signify a « feeling of control » along with the appropriation of social and body constraints by means of a rapid pace of activity. The second one regards the use of supports that contribute to « put things into perspective » by means of the slowing down of the pace of activity and through letting go of the feeling of control. This mechanism includes the creation of personal and social spaces of « one's own ». The third axis is defined by the positioning of the self in regard to others through a process of « personnalization ».Developed in specific contexts through the intertwinnements between the body and social others, supports belonging to these axes acquire significance and meaning on the basis of their relationship to a global system of activities of which they are part. However, this articulation is uniquely defined for each participant. According to this critical approach, subjective well-being among women senior managers emerges as a meaningful and changing process, situated in a plural social context. This is, it appears as the result of conflictual interactions defining the three different axis that we have identified. Subjective well-being is hence a social, embodied and psychological phenomena that is closely linked to the articulation of different social realms. Our findings open new research and practice perspectives, especially concerning health and work issues. These perspectives convey an integrative approach in Health Psychology by considering health and well-being by taking into account the process of construction of the subject in regard to his or her plural social participation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude envisage le film de Gus Van Sant à partir des théories de l'énonciation narrative, rediscutées à travers cet exemple singulier où le spectateur est convié - du moins en apparence - à adopter successivement, grâce à une « caméra subjective » dont on sonde toute l'ambiguïté, le point de vue de différents personnages. Ce contexte théorique permet de dévoiler certains mécanismes de l'organisation du film et les raisons de l'enraiement de l'identification aux figures de l'écran, fantômes qui semblent s'effacer devant une présence appuyée de la caméra rappelant qu'il s'agit avant tout d'un regard porté sur un fait divers, non d'une explication basée sur des phénomènes d'intériorisation psychologique - Elephant trouve à cet égard, comme l'auteur le montre ici, une position intermédiaire entre le film homonyme réalisé par Alan Clarke en 1989 pour la BBC et Bowling for Columbine de Michael Moore (2002). On y envisage la démarche du cinéaste de façon concrète, comme une manière d'arpenter un espace en prenant des personnages en « filature ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.