569 resultados para apports alimentaires


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les travaux d'Anita Guerreau-Jalabert sur la symbolique des triangles alimentaires dans le roman arthurien, personne ne saurait douter qu'au Moyen Âge la nourriture obéit à des codes. Une scène de table ne se réduit pas à une notation à valeur référentielle, à un éclat de vie aristocratique : intégrée au récit, la notation alimentaire est un élément constitutif du sens de l'oeuvre. Plus particulièrement, un plat peut servir de message adressé par un personnage à un autre. On s'est peu intéressé, si ce n'est pour la légende du coeur mangé, à ces passages où la nourriture vient compléter, voire se substituer à la parole. Des nouvelles de Boccace (traduites par Laurent de Premierfait) aux Cent Nouvelles nouvelles et au Pogge (traduit par Guillaume Tardif), mais aussi dans les romans (Ysaÿe le Triste, Le Cuer d'amours espris, Jehan de Saintré), les exemples ne manquent pas qui, à la fin du Moyen Âge, illustrent la variété des messages alimentaires. Si le plat qu'on sert peut être l'instrument d'une vengeance (le repas cannibale !), il est aussi et surtout utilisé comme moyen de séduction. Parfois, il s'agit d'un avertissement qui, par la transgression des codes, donne voix à la morale ; ailleurs, l'ironie s'en mêle, quand la nourriture traduit une attitude de dérision face au convive. Ce dernier procédé, plus ludique, ne se rencontre pas seulement - comme on pourrait s'y attendre - dans l'univers du fabliau ou de la nouvelle. Il traverse le Moyen Âge et, du XIIe au XVe siècle, prépare l'émergence du cuisinier dont l'art et les « joyeux dits » font un double du poète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formatés par une société qui accorde une place prépondéranze au bien-être et qui nous incite à prendre soin de notre apparence physique, nous sommes paradoxalement confrontés à un monde graduellemet gagné par l'obésité et les maladies qui lui sont associées. Celles-ci reflètent l'inadéquation entre les régimes alimentaires modernes, la sédentarité croissante des populations et le patrimoine génétique que nous avons hérité de nos ancêtres.Comment parvenir à nous nourrir en bonne intelligence avec nos gènes et notre style de vie ? La réponse se trouve peut-être du coté de la génomique, ou nutrigénomique, cette toute nouvelle discipline qui s'intéresse à l'influence de l'alimentation sur les gènes.Médecine, biologie, sciences humaines, industrie pharmaceutique et industrie agroalimentaire trouveront avantage à s'associer pour faire de la nutrigénomique un élément d'innovation scientifique et sociétale dans la prévention et la lutte contre les maladies liées à des régimes inappropriés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction et But de l'étude. - La plupart des études d'évaluation de la nutrition en réanimation concernent les patients ventilés bénéficiant d'un support nutritionnel artificiel. La nutrition per os qui concerne les patients les moins graves ou sortis de la phase critique est peu étudiée. Cette étude observationnelle, menée dans le cadre d'un travail de Bachelor en collaboration avec les Hôpitaux Universitaires de Genève, a pour objectif de réaliser un état des lieux des pratiques nutritionnelles actuelles, tous patients confondus, dans un service de réanimation médico-chirurgicale, et de mesurer la couverture des besoins énergétiques en fonction du type de nutrition administré ou consommé. Matériel et Méthodes. - Inclusion de tous les patients adultes hospitalisés pour plus de 24 h en réanimation durant 6 semaines consécutives, suivis jusqu'à la sortie du service mais pendant 14 jours au maximum. Les apports caloriques entéraux et parentéraux ont été récoltés dans le dossier patient informatisé. Les apports per os ont été estimés sur la base de la composition nutritionnelle standard des repas servis et le report infirmier des quantités consommées. Les suppléments nutritifs oraux ont été inclus dans les apports per os. Les solutés glucosés et les dilutions de médicaments n'ont pas été comptabilisés. La cible calorique a été fixée à 30 kcal/kg pour les hommes et 25 kcal/kg pour les femmes, sur la base du poids mesuré ou anamnestique ou sur le poids correspondant à un BMI de 22,5 en cas d'obésité. Résultats. - Six cent quatre-vingt douze journées-patients ont été analysées, issues de 114 patients dont le score SAPS II moyen est de 43. Toutes journées confondues (sans tenir compte du début ou fin de séjour) : 44 % (n = 307) des journées sont sous NE exclusive, 9 % (n = 64) sous NP exclusive et 7 % (n = 47) combinent ces deux types d'apports. La nutrition per os exclusive représente 17 % (n = 116) des journées et 23 % (n = 158) ne comportent aucun apport nutritionnel. Lorsque l'on s'intéresse au pour centage d'atteinte de la cible calorique selon le type de nutrition, il se répartit comme tel (médiane ± espace interquartile) : NE : 83 ± 44 % ; NP : 84 ± 75 % ; combiné : 95 ± 39 % ; per os : 28 ± 33 %. La nutrition per os se retrouve en fin de séjour mais pas uniquement puisque seules un peu plus de la moitié des journées de nutrition per os ont lieu lors du dernier (35 %) ou de l'avant dernier (28 %) jour du séjour. L'atteinte de la cible calorique par la nutrition per os exclusive évolue peu au long du séjour. Conclusion. - La nutrition per os représente le mode d'alimentation d'un nombre important de journées dans cette observation. La très faible couverture des besoins caloriques lors de ces journées, tout au long du séjour, classe ces patients dans une catégorie à risque nutritionnel important. Une évaluation plus précise des apports protéino-énergétique devrait être réalisée afin de quantifier plus exactement les déficits et un suivi de l'évolution de ces patients apporterait un éclairage important.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mention de date : 3 juin, mais sans millésime. - Remercie son ami pour les renseignements apportés sur Jacques Roudil. Lui demande qu'il prenne en main "l'affaire Donadio" et l'informe qu'il sera probablement retenu par "l'affaire Gounod". Se montre très irrité au sujet de "F." avec qui il ira "jusqu'à la dernière limite de la patience": "je vous avoue que manquer à sa parole et ne pas même s'excuser, c'est beaucoup trop"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement des habiletés sociales est une intervention utile pour améliorer le fonctionnement interpersonnel de personnes qui ont un diagnostic de schizophrénie. Les nouvelles connaissances sur la cognition sociale doivent être intégrées dans l'entraînement. Cet article présente des ajouts en ce sens apportés au jeu Compétence et les résultats préliminaires d'une étude pilote d'évaluation de cette nouvelle version.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse explore le rôle de la normalisation technique dans les délocalisations de services en Inde et au Maroc. La recherche appréhende le phénomène en opposant explicitement ou implicitement deux modèles. Un modèle serviciel dans lequel les activités de services sont difficilement délocalisables parce que non-mesurables ; un modèle industriel qui articule des activités de services mesurables par les normes techniques et susceptibles d'être délocalisés dans les pays du Sud à bas salaires. Notre thèse s'interroge sur la manière dont les relations Nord-Sud peuvent s'appréhender au sein de cette dichotomie et propose une réflexion épistémologique sur les représentations culturelles induites au sein de ce cadrage. A partir d'une perspective qui combine les apports de l'économie politique culturelle, la sociologie économique et les études postcoloniales au sein de l'économie politique internationale, elle mobilise trois catégories (la normalisation technique, l'imaginaire économique, la qualité). Ces catégories nous permettent de suggérer la centralité des enjeux de pouvoirs dans la définition de ce que sont les activités de services. L'analyse empirique suggère que les délocalisations de services au Maroc et en Inde expriment des réalités plus poreuses et plus dynamiques que la dichotomie entre modèle serviciel et modèle industriel laisse entendre. Elle met en évidence la capacité d'agir des acteurs des pays du Sud et suggère que les normes techniques ont une fonction politique à travers leurs fonctions de mesure. Abstract This thesis explores the role of technical standards in offshore outsourcing in India and Morocco. Current research captures the phenomenon while opposing explicitly or implicitly two models of production. A service-based model in which service activities are difficult to relocate because they are non-measurable; an industrial model that articulates service activities measured with technical standards and that may be outsourced to developing countries with low wages. Our thesis questions how North-South relations can be grasped within this dichotomy and offers an epistemologica! reflection on cultural representations induced within this framework. From a perspective that combines the contributions of cultural political economy, economic sociology and postcolonial studies in international political economy, it mobilizes three categories (technical standardization, the economic imaginary and quality). These categories allow us to suggest the centrality of power issues in the definition of service activities. The empirical analysis suggests that offshoring of services in Morocco and India express more porous and dynamic realities than the dichotomy suggested between a service model and an industrial model. It highlights the ability of the actors to act in the South and suggests that technical standards have a political function through their measurement functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système vasculaire lymphatique est le second réseau de vaisseaux du corps humain. Sa fonction principale est de retourner le fluide interstitiel excédentaire au système cardiovasculaire. Il est également impliqué dans la défense immunitaire de l'organisme, ainsi que dans le transport initial des graisses alimentaires. De multiples pathologies sont associées au dysfonctionnement du développement vasculaire lymphatique, dont les lymphoedèmes. Un des gènes clés dans le contrôle de l'étape de maturation du système lymphatique est le facteur de transcription FOXC2. De précédentes études utilisant des modèles génétiques mutins déficients en Foxc2 ont montré son rôle dans la régulation du processus de spécification des vaisseaux lymphatiques en capillaires versus vaisseaux collecteurs, ainsi que dans la formation des valves lymphatiques. Chez l'homme, les mutations dans le gène FOXC2 causent le syndrome lymphoedème- distichiasis. Dans ce travail, nous avons étudié les mécanismes moléculaires qui régulent l'expression et l'activité de FOXC2 dans les vaisseaux lymphatiques. Nous avons découvert que la fonction de FOXC2 est régulée par phosphorylation de la protéine, qui détermine son activité transcriptionnelle au niveau génomique, jouant ainsi un rôle important dans le développement vasculaire in vivo. Les vaisseaux lymphatiques sont soumis à des forces de stress générées par le flux de la lymphe (FSS). Nous avons donc testé l'hypothèse que ces forces contribuent à la morphogenèse et à l'organisation des vaisseaux lymphatiques. In vitro, les cellules endothéliales lymphatiques répondent aux forces mécaniques, qui induisent l'expression de FOXC2, activent la voie de signalisation Ca2+/calcineurin/NFATcl et régulent l'expression de la protéine de jonction gap connexin37. Nous avons également montré que le stress de flux mécanique, FOXC2, calcineurin/NFATcl et connexin37 coopèrent dans le contrôle de la maturation des vaisseaux lymphatiques in vivo. En dernier lieu, nous avons cherché à identifier les récepteurs de surface cellulaires permettant le transfert du signal de stress mécanique qui induit l'expression de FOXC2. Nous présentons ici des données préliminaires, qui suggèrent le rôle de la voie de signalisation TGFß ainsi que l'implication des jonctions adhérentes dans ce processus. En conclusion, la présente étude met en lumière les mécanismes de l'activité de FOXC2 dans les cellules endothéliales lymphatiques et l'importance du rôle des forces mécaniques de flux dans le contrôle de son l'expression, ainsi que dans le développement et la fonction du système vasculaire lymphatique. - The lymphatic vascular system is a second vascular system of human body. Its main fonction is to transfer excess interstitial fluid back to cardiovascular system. In addition, it is involved in immune defense and responsible for the uptake of dietary fat. A number of pathologies called lymphedemas are associated with lymphatic vascular system dysfunction. Hereditary lymphedemas are caused by mutations in genes controlling lymphatic vascular development. One of the key genes responsible for lymphatic vascular maturation is forkhead transcription factor FOXC2. Previous studies of Foxc2 knockout mice showed that Foxc2 controls the process of lymphatic capillary versus collecting vessel fate specification and formation of lymphatic valves. Importantly, mutations in FOXC2 cause human lymphedema-distichiasis syndrome. In this work we investigated the molecular mechanisms regulating the expression and activity of FOXC2 in lymphatic vasculature. We discovered that FOXC2 function is regulated by phosphorylation. We describe how phosphorylation controls FOXC2 transcriptional activity on a genome-wide level and show that FOXC2 phosphorylation plays an important role in vascular development in vivo. Lymphatic vessels are subjected to fluid shear stress (FSS). Therefore we investigated whether mechanical forces contribute to lymphatic vascular patterning and morphogenesis. We found that FSS induces the expression of FOXC2, activates Ca2+/calcineurin/NFATcl signaling and induces the expression of gap junction protein connexin37 in lymphatic endothelial cells in vitro. Importantly, we were able to show that shear stress, FOXC2, calcineurin/NFATcl and connexin37, control maturation of lymphatic vessels in vivo. Finally, we searched for cell surface receptors that mediate the induction of FOXC2 by shear stress, and we present some preliminary data, suggesting the role of TGF-beta signaling and adherens junctions in this process. In conclusion, the present study sheds light on the mechanisms of FOXC2 activity and suggests an important role of mechanical forces in controlling FOXC2 expression as well as lymphatic system development and function.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se référant à son propre parcours psychothérapeutique qui l'a conduit de la psychanalyse à la systémique, sans qu'il n'ait dû renier les apports de sa première formation, l'auteur réfléchit sur les connivences possibles entre ces deux approches, et plus largement sur les possibilités d'une pratique psychothérapeutique non uniréférencée. Selon lui, la diversité des méthodes psychothérapeutiques ne doit pas nécessairement conduire à un éclectisme hypertolérant, souvent confusionnant. Il importe pour le psychothérapeute de se savoir ici plutôt que là, tout en maintenant une ouverture aux autres pratiques grâce à l'intégration assimilative de certaines de leurs techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail a pour objectif d'étudier l'évolution du métier de médecin de premier recours à la lumière du réel de son activité. Afin de pallier les lacunes de la littérature, nous proposons d'investiguer les perceptions et les pratiques rapportées de médecins de premier recours, considérant leur activité comme située dans un contexte spécifique. Un cadre théorique multiréférencé, intégrant les apports de Bischoff (2012), de la théorie de l'activité (Engeström et al., 1999), de l'ergonomie (Daniellou, 1996 ; Falzon, 2004a; Leplat, 1997) et de certains courants de la psychologie du travail (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) permet de tenir compte de la complexité du travail des médecins de premier recours. Une méthodologie mixte, alliant une approche qualitative par entretiens semi-structurés (n=20) à une approche quantitative par questionnaire (n=553), a été développée. Les résultats de l'analyse thématique des entretiens mettent en évidence trois thèmes majeurs : l'Evolution du métier (Thème 1), caractérisé par les changements perçus, les demandes des populations qui consultent et les paradoxes et vécus des médecins ; les Ajustements et supports (Thème 2) mis en place par les médecins pour faire face aux changements et aux difficultés de leur métier ; les Perceptions et les attentes par rapport au métier (Thème 3), mettant en avant des écarts perçus entre la formation et la réalité du métier. La partie quantitative permet de répondre aux questionnements générés à partir des résultats qualitatifs et de généraliser certains d'entre eux. Suite à l'intégration des deux volets de l'étude, nous présentons une nouvelle modélisation du métier de médecin de premier recours, soulignant son aspect dynamique et évolutif. Cette modélisation rend possible l'analyse de l'activité réelle des médecins, en tenant compte des contraintes organisationnelles, des paradoxes inhérents au métier et du vécu des médecins de premier recours. L'analyse des limites de cette étude ouvre à de nouvelles perspectives de recherche. A l'issue de ce travail, nous proposons quelques usages pragmatiques, qui pourront être utiles aux médecins de premier recours et aux médecins en formation, non seulement dans la réalisation de leur activité, mais également pour le maintien de leur équilibre et leur épanouissement au sein du métier. - This study aims to investigate the evolution of primary care physicians' work, in the light of the reality of their activity. In order to overcome the limitations of the literature, we propose to focus on primary care physicians' reported perceptions and practices, considering their activity as situated in a specific context. The theoretical framework refers to Bischoff (2012), Activity theory (Engeström et al., 1999), ergonomy (Daniellou, 1996; Falzon, 2004a; Leplat, 1997) and work psychology (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) and enables to take into account the complexity of primary care physicians' work. This mixed methods study proposes semi-structured interviews (n=20) and a questionnaire (n=553). Thematic analysis of interviews points out three major themes : Evolution of work (Theme 1) is characterised by perceived changes, patients' expectations and paradoxes ; Adjustments and supports (Theme 2), that help to face changes and difficulties of work ; Perceptions related to work, including differences between work reality as represented during medical education/training and actual work reality. Quantitative part of the study enables to answer questions generated from qualitative results and to generalise some of them. Integration of qualitative and quantitative results leads to a new modelling of primary care physicians ' work, that is dynamic and evolutionary. This modelling is useful to analyse the primary care physicians' activity, including organisational constraints, paradoxes of work and how primary care physicians are experiencing them. Despite its limitations, this study offers new research perspectives. To conclude, we state pragmatic recommendations that could be helpful to primary care physicians in private practice and junior doctors, in order to realise their activity, to maintain their balance and to sustain their professional fulfilment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De tout temps, hommes et femmes ont cherché par tous les moyens à développer, préserver ou recouvrer leurs propres capacités sexuelles mais également à stimuler le désir du partenaire. L?utilisation d?aphrodisiaques naturels a été l?un des recours les plus répandus. De nos jours, la commercialisation de nouvelles "love drugs" de synthèse, e.g. Viagra®, Cialis®, Levitra®, a remis au goût du jour les aphrodisiaques classiques et à relancer la recherche sur des molécules nouvelles. La pratique croissante de l?automédication, le matraquage publicitaire sur les aphrodisiaques naturels, la prolifération sur le marché de compléments alimentaires non contrôlés et l?absence de véritable législation accroissent les risques qui pèsent sur la santé publique. Dans le but d?évaluer les risques potentiels sur le consommateur de produits aphrodisiaques commercialisés, le développement et la validation d?une méthode rapide d?analyse qualitative et quantitative de la yohimbine dans ces préparations du marché sont exposés dans la première partie de ce travail. La yohimbine est un antagoniste ?2-adrénocepteur du système nerveux central et périphérique, elle est employée depuis plus d?un siècle dans le traitement des dysfonctionnements érectiles. Cette méthode analytique utilise la chromatographie liquide couplée à l?ultraviolet et à la spectrométrie de masse (LC-UV-MS) et au total, vingt préparations aphrodisiaques ont été étudiées. La dose journalière de yohimbine mesurée s?est révélée très variable selon les produits puisqu?elle varie de 1.32 à 23.16 mg. La seconde partie de ce travail concerne l?étude phytochimique et pharmacologique d?Erythroxylum vacciniifolium Mart. (Erythroxylaceae), une plante, appelée localement catuaba, utilisée dans la médecine traditionnelle brésilienne comme tonique et aphrodisiaque. Dans un premier temps, l?extrait alcaloïdique a été analysé par chromatographie liquide haute performance (HPLC) couplée soit à un détecteur UV à barrette d?iode (LC-UV-DAD), soit à un spectromètre de masse (LC-MS), ou soit à un spectromètre de résonance magnétique nucléaire (LC-RMN). L?interprétation de ces données spectrales enregistrées en ligne a permis d?obtenir des informations structurales et d?identifier partiellement près de 24 alcaloïdes appartenant à la classe des tropanes et potentiellement originaux. Par des méthodes classiques de chromatographie liquide sur l?extrait alcaloïdique de la plante, dix sept tropanes nouveaux ont ensuite été isolés dont les catuabines et leurs dérivés, et les vaccinines. Tous ces composés sont des tropane-diols ou triols estérifiés par au moins un groupe acide 1-méthyl-1H-pyrrole-2-carboxylique. Un de ces composés a été identifié comme un tropane N-oxyde. Toutes les structures ont été déterminées par spectrométrie de masse haute résolution et spectroscopie RMN multi-dimensionnelle. Parmi les nombreux tests biologiques réalisés sur ces tropanes, seuls les tests de cytotoxicité se sont révélés faiblement positifs pour certains de ces composés.<br/><br/>Throughout the ages, men and women have incessantly pursued every means to increase, preserve or recapture their sexual capacity, or to stimulate the sexual desire of selected individuals. One of the most recurrent methods has been the use of natural aphrodisiacs. Nowadays, the commercialization of new synthetic "love drugs", e.g. Viagra®, Cialis® and Levitra®, has fascinated the public interest and has led to a reassessment of classical aphrodisiacs and to the search for new ones. The practice of self-medication by an increasing number of patients, the incessant aggressive advertising of these herbal aphrodisiacs, the invasion of the medicinal market with uncontrolled dietary supplements and the absence of real directives amplifies the potential health hazards to the community. In order to evaluate the possible risks of commercialized aphrodisiac products on consumer health, the development and validation of a rapid qualitative and quantitative method for the analysis of yohimbine in these products, is reported in the first part of the present work. Yohimbine, a pharmacologically well-characterized ?2-adrenoceptor antagonist with activity in the central and peripheral nervous system, has been used for over a century in the treatment of erectile dysfunction. The analytical method is based on liquid chromatography coupled with ultraviolet and mass spectrometry (LC-UV-MS) and in total, 20 commercially-available aphrodisiac preparations were analyzed. The amount of yohimbine measured and expressed as the maximal dose per day suggested on product labels ranged from 1.32 to 23.16 mg. The second part of this work involved the phytochemical and pharmacological investigation of Erythroxylum vacciniifolium Mart. (Erythroxylaceae), a plant used in Brazilian traditional medicine as an aphrodisiac and tonic, and locally known as catuaba. With the aim of obtaining preliminary structure information on-line, the alkaloid extract was analyzed by high performance liquid chromatography (HPLC) coupled to diode array UV detection (LC-UVDAD), to mass spectrometry (LC-MS) and to nuclear magnetic resonance spectroscopy (LCNMR). Interpretation of on-line spectroscopic data led to structure elucidation and partial identification of 24 potentially original alkaloids bearing the same tropane skeleton. Seventeen new tropane alkaloids were then isolated from the alkaloid extract of the plant, including catuabines D to I, their derivatives and vaccinines A and B. All compounds were elucidated as tropane-diol or -triol alkaloids esterified by at least one 1-methyl-1H-pyrrole-2-carboxylic acid. One of the isolated compounds was identified as a tropane alkaloid N-oxide. Their structures were determined by high resolution mass spectrometry and multi-dimensional NMR spectroscopy. Among the numerous bioassays undertaken, only the cytotoxicity tests exhibited a weak positive activity of certain compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PLAN DE LA RECHERCHE La présentation de ces travaux de recherche est divisée en neuf chapitres : Chapitre 1. Les éléments qui concourent d'un point de vue essentiellement théorique à l'individualité de l'écriture manuscrite sont décrits. Dans un premier temps sont abordés les aspects anatomo-fonctionnels de l'écriture, permettant de saisir quelles sont les contributions musculaires et neuronales de l'individualité de l'écriture. Ensuite sont présentées les caractéristiques de l'écriture telles qu'elles sont étudiées et classifiées par les praticiens, ainsi que la notion de leur variation naturelle. Enfin, les "lois" dites fondamentales de l'écriture sont mentionnées et discutées. Chapitre 2. Les problèmes soulevés lors de débats contradictoires menés au sein de la justice nord-américaine, qui ont porté sur l'admissibilité des expertises d'écritures manuscrites, sont exposés. Ces débats ont mis en évidence la nécessité d'entreprendre des recherches scientifiques approfondies afin d'obtenir des données sur la variabilité des écritures manuscrites. Chapitre 3. Après une présentation de la nécessité de la récolte et de l'analyse de données quantitatives caractérisant l'écriture manuscrite, diverses études ayant cherché à réduire la part de subjectivité au sein du processus d'analyse des écritures sont résumées. Les études se basant sur des mesures ou des classifications effectuées visuellement sont traitées d'abord, suivies des études visant à estimer la fréquence d'apparition de certaines caractéristiques dans certaines populations de scripteurs, puis des études plus récentes taisant intervenir des méthodes de vérification et d'identification de scripteurs. Chapitre 4. Le choix de soumettre la forme des boucles des caractères manuscrits à une étude statistique est justifié, tant par l'importance présumée de son polymorphisme que de sa fréquente utilisation par les praticiens du domaine d'intérêt. Chapitre 5. Les descripteurs de Fourier, utilisés pour caractériser la forme du contour des boucles manuscrites, sont introduits. La mise en évidence de la diversité de leurs domaines d'application précède leur description mathématique, en mettant notamment en avant les avantages de cette technique parmi d'autres méthodes de caractérisation de la Tonne de contours. Chapitre 6. La première partie de la recherche expérimentale est consacrée à la validation de la méthodologie. L'objectif de cette étape consiste à montrer si la procédure d'analyse d'images et les descripteurs de Fourier permettent de démontrer des différences entre des groupes de boucles dont la Tonne est visuellement distincte. Chapitre 7. La variabilité des paramètres de la forme de boucles mesurés au sein d'une population plus importante de scripteurs est étudiée. Des tendances générales de forme permettant de grouper .des scripteurs sont soulignées, puis les caractéristiques particulières pouvant permettre d'individualiser un scripteur sont signalées. Chapitre 8. L'influence de la taille sur la forme des boucles de caractères manuscrits est évaluée, afin de déterminer si des boucles de la même lettre et d'un même scripteur mais de taille différente présentent des aspects de forme distincts. Des tendances générales de modification de la forme ainsi que certaines singularités sont mises en exergue. Chapitre 9. Des modèles d'évaluation permettant de quantifier la valeur probante de l'indice que représente la forme des boucles manuscrites sont exposés. Leur application, qui fait intervenir le rapport de vraisemblance, confirme le potentiel d'individualisation du scripteur mis en évidence précédemment. D'autre part, l'utilisation du rapport de vraisemblance comme métrique confirme les résultats obtenus par diverses méthodes statistiques dans les chapitres précédents. Enfin, la discussion générale résume les apports principaux de cette recherche et en dégage les conséquences pour le praticien, puis propose des pistes possibles pour la poursuite de la recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé destiné à un large public Le système immunitaire associé aux muqueuses gastro-intestinales doit être capable de protéger notre organisme contre l'invasion de pathogènes. Parallèlement, il doit identifier en Cant que tels, des composés inoffensifs comme la nourriture ou les milliards de bactéries qui résident dans notre intestin. Le travail présenté ici aborde ces deux aspects essentiels au bon fonctionnement de notre muqueuse intestinale. Dans une première partie, la protéine nommée pièce sécrétoire a été étudiée pour ses propriétés protectrices contre le pathogène viral rotavirus. Le rôle de la pièce sécrétoire est de transporter les anticorps que nous produisons vers la surface des muqueuses. En dehors de cette fonction bien connue, il se peut que cette protéine soit également capable de protéger notre organisme contre certains virus. L'hypothèse de travail était donc que la pièce sécrétoire se lie directement au virus, l'empêchant ainsi d'infecter des cellules épithéliales de l'intestin. En utilisant différentes techniques biochimiques, cette hypothèse s'est révélée fausse car aucune interaction entre la pièce sécrétoire et le virus n'a pu être observée, et logiquement, aucune protection n'a pu prendre place. En revanche, la pièce sécrétoire se lie à d'autres structures pathogéniques et permet ainsi de neutraliser leurs effets néfastes. La pièce sécrétoire participe donc activement à la protection de nos muqueuses, en plus de son rôle de transporteur. La deuxième partie de ce travail avait pour sujet les réactions inappropriées que le système immunitaire induit parfois contre un aliment, ou, autrement dit, les allergies alimentaires. Un modèle d'allergie alimentaire à donc été développé chez la souris et a permis de mesurer plusieurs symptômes et facteurs liés à l'allergie. Puis, ce modèle a été utilisé afin de tester les effets bénéfiques d'une bactérie lactique, dite probiotique, sur le développement de l'allergie. Il a été observé que, sous certaines circonstances, l'administration de la bactérie lactique protégeait entièrement les souris contre les réactions allergiques. L'effet bénéfique dépend donc du probiotique mais également d'autres facteurs encore inconnus â ce jour. Cette étude ouvre la voie sur la compréhension des mécanismes liés aux allergies alimentaires et sur l'impact que peuvent avoir les bactéries probiotiques sur cette maladie. Résumé Le système immunitaire associé aux muqueuses intestinales doit être capable de différencier les antigènes inoffensifs tels que 1a nourriture ou les bactéries commensales des microorganismes potentiellement dangereux. Cet aspect est essentiel pour le maintien de l'homéostase intestinale et fait l'objet du travail présenté ici. Dans un premier projet, les propriétés protectrices de la protéine appelée pièce sécrétoire (SC) ont été étudiées. SC est une protéine connue pour le transport des immunoglobulines à la surface des muqueuses. Cette protéine est fortement glycosylée paz des sucres complexes, ce qui nous a mené à postuler que SC puisse interagir avec le pathogène rotavirus. Cette hypothèse était soutenue par le fait que ce virus adhère aux cellules épithéliales par des résidus glycosylés. Des analyses biochimiques et biologiques ont démontré qu'aucune interaction entre SC et le virus ne prenait place, et que par conséquent SC n'offrait aucune protection contre ce pathogène. En revanche, SC interagit avec d'autres structures pathogéniques, comme la toxine A de Clostridium difficile, et la molécule d'adhésion intimine de la bactérie entéropathogène Escherichia coli. La liaison se fait par l'intermédiaire des sucres et confère ainsi une protection contre ces pathogènes. Ainsi, SC a été identifié comme agent neutralisant au niveau de l'intestin. La deuxième partie de ce travail abordait le sujet des allergies alimentaires, et avait pour but de tester les effets bénéfiques potentiels d'une bactérie probiotique, Lactobacillus paracasei NCC2461, contre les réactions allergiques. Un modèle marin d'allergie alimentaire a été mis au point, permettant de mesurer des immunoglobulines E, des symptômes allergiques, et la dégranulation de mastocytes. Lorsque le probiotique a été administré aux souris, celles-ci ont été complètement protégées des réactions allergiques dans une première expérience. Cependant, cette protection n'a pas été reproduite et suggère que des facteurs environnementaux encore inconnus sont critiques pour que le probiotique agisse positivement. Ce travail a permis de mettre en évidence la complexité de l'approche des traitements liés aux probiotiques et ouvre la voie sur la compréhension des mécanismes liés à l'allergie. Abstract The mucosal immune system associated to the gastrointestinal mucosa must efficiently distinguish between innocuous antigens, such as food proteins and commensal bacteria and potentially infectious agents. The work presented here deals with these two essential aspects guaranteeing intestinal homeostasis. In the first part of this work, the protective properties of secretory component (SC) toward the pathogen rotavirus were investigated. SC, which allows the transport of polymeric immunoglobulins (Ig) to mucosal surfaces, is highly glycosylated with complex glycan structures. The abundance and the nature of these carbohydrates led us to speculate that SC might interact with rotavirus, which is known to bind target cells with glycan receptors. Using various biological and biochemical techniques, we demonstrated that SC did not interact with rotaviruses, nor protected epithelial cells from infection. However, SC was shown to bind to Clostridium difficile toxin A and to the enteropathogenic Echerischia coli adhesion molecule intimin in a glycan-dependent fashion. These interactions allow in vitro protection of epithelial cells using physiological concentrations of SC. These data identify SC as a microbial scavenger at mucosal surfaces, and in the context of secretory IgA, further enhance the neutralising properties of the complex. The second project was inscribed in the domain of food allergy and aimed to test the modulatory functions of a probiotic strain of Lactobacillus paracasei toward allergic reactions. A model of food-mediated allergy was developed in the mouse using mucosal sensitisation. Several parameters associated to allergy were quantified after allergen challenge, and included allergen-specific IgE, allergic signs like diarrhea and temperature drop, and degranulation of mast cells. Administration of the probiotic strain was shown to completely protect mice from allergic reactions. However, these data were not reproduced, suggesting that unknown environmental factors are required so that protection mediated by the probiotic strain occurs. This study paves the way to the understanding of the mechanisms associated to allergy, and highlights the tremendous complexity that probiotic treatments will have to face.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.