1000 resultados para Cadre d’analyse
Resumo:
(Résumé de l'ouvrage) Cet ouvrage réunit un choix de contributions réalisées dans le cadre de rencontres et de colloques organisés entre 2002 et 2006 par le Séminaire d'épigraphie grecque et latine de l'Institut d'Archéologie et des Sciences de l'Antiquité de l'Université de Lausanne. En outre, un avant-propos offre la synthèse des résultats présentés dans ce volume. La participation des femmes à la vie publique est en effet l'un des domaines de recherches prioritaires du Séminaire d'épigraphie, car les milliers d'inscriptions antiques découvertes à ce jour offrent sur le sujet une foule de renseignements encore insuffisamment exploités par les historiens. L'originalité de l'ouvrage tient d'une part à l'analyse des différentes voies offertes aux femmes pour se tailler un rôle public, des plus traditionnelles comme les postes religieux, aux plus inhabituelles comme la présence de princesses et de reines sur les champs de bataille ou les « campagnes publicitaires » orchestrées pour certaines épouses de dirigeants politiques. Elle tient d'autre part à la volonté de confronter les activités publiques féminines en différents lieux du bassin méditerranéen et dans des civilisations antiques diverses : Egypte pharaonique, Grèce, royaumes hellénistiques d'Orient, Italie ou provinces occidentales de l'Empire romain.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé de Thèse Proche de Horkheimer, d'Adorno ou encore de Benjamin, ce philosophe issu de l'École de Francfort ne manque pas moins d'attirer la curiosité. On a tôt fait de classer Herbert Marcuse (1898-1979) aux oubliettes alors que sa pensée était peu connue, nonobstant une médiatisation très importante qui a dépassé le cadre classique des universités. Ce philosophe allemand atypique dont le nom surgit notamment suite à la publication de L'Homme unidimensionnel fut abondamment lu mais peu systématisé. Repris à tort et à travers, instrumentalisé aux temps des révoltes étudiantes des années 60, il ne lègue pas moins une pensée qui doit apparaître sous une forme nouvelle et prospective. Cette recherche vise prioritairement à l'extraire de ce brouhaha qui l'enveloppa et menaça de le faire disparaître. Cet essai insiste sur un retour à l'exigence scientifique via l'exhumation des textes méconnus du grand public et une insertion indispensable dans l'histoire des penseurs philosophiques. Accéder à la connaissance de ce philosophe passe par un certain nombre de clefs parmi lesquelles le concept de nature. Pour y arriver, cependant, la quête des fondements d'une philosophie dont les sources sont plurielles et inconciliables s'impose comme étape primordiale et pleine de promesses. A la vérité, le peu de systématisation de la pensée marcusienne est en grande partie liée à cette « prolifération » de références auxquelles s'est adonné Marcuse, laissant une mince passerelle susceptible de dégager une architecture globale et cohérente de sa pensée. Certes, la présentation de Marcuse est restée jusque-là prisonnière de l'influence de Hegel, Marx et Freud. L'auteur de cette thèse tente de démontrer que la pensée marcusienne s'oriente à partir de Kant. Attaché à la tradition philosophique germanique de l'Aufklärung, l'oeuvre du philosophe francfortois combat toutes sortes d'irrationalités qui obstruent la voie menant vers un humanisme réel. La nature reste un concept polémique parce qu'il ne saurait se résumer à l'étant. Ni la nature intérieure, ni la nature extérieure ne se limitent à cet horizon dépourvu de subjectivité. Disciple de Heidegger, Marcuse définit la nature à partir du Dasein, un être-là qui est jeté dans l'histoire et qui porte en lui la qualité de l'historicité. Contre la société dite unidimensionnelle postindustrielle qui annonce l'acmé du capitalisme triomphant, les travaux de Marcuse visent un retour à la nature autant qu'ils font de celle-ci un futur. La nature n'est pas seulement ce qu'elle a été, elle est aussi ce qui est à être. En invalidant le consumérisme ambiant, il décrit la publicité marchande comme un acte de négation des vraies valeurs humaines. Ni la superfluité secrétée par le marché, ni les systèmes communiste (le marxisme soviétique et ses sbires) et capitaliste ne sont capables de provoquer l'idéal de l'humain. Le discours marcusien fécondé par la « Théorie Critique » invente le concept de « Grand Refus » adossé à la dialectique hégélienne, obligeant la conscience à veiller sur le réel pour le conduire vers l'émancipation plutôt que vers un « chemin qui ne mène nulle part ». Attachée à la concrétude et la transformation historique héritée de Marx, il réoriente le Dasein heideggérien en lui donnant plus de chair. Nature et historicité, cette réalité duelle se complique parce qu'elle incarne une difficile révolution qui nécessitera davantage d'imagination. Le « Grand Refus » aura besoin d'un allié plus subtile : l'esthétique qui laisse apparaître la Troisième critique kantienne. Au-delà de ce refuge dans l'art, on aura toujours besoin de Marcuse pour mieux comprendre nos sociétés en pleine mutation et pour habiter en conséquence notre monde perfectible.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
L'étude s'inscrit dans le cadre des actions de prévention de la consommation abusive d'alcool entreprises par la Ligue valaisanne contre les toxicomanies (LVT). Réalisée après la campagne d'affichage articulée autour des slogans "Combien ?" et "dégustez la modération !", elle a principalement pour objectif de documenter les habitudes de consommation de la population valaisanne et leur évolution récente ainsi que d'identifier les facteurs susceptibles d'exercer une influence positive ou négative sur la transition vers une consommation d'alcool articulée autour des pôles "qualité" et "modération". L'étude doit en outre servir à construire la suite des actions de prévention de la LVT dans une perspective de continuité par rapport aux messages diffusés précédemment : approfondissement, clarification, repérage des publics cible et des arguments les plus pertinents.
Resumo:
La comparaison des fécondités entre reines de sociétés expérimentales monogynes et polygynes de la fourmi d'Argentine (lridomyrmex humilis) nous a permis de montrer que les reines des sociétés monogynes pondent significativement plus d'oeufs que les reines des sociétés polygynes. Dans ce contexte nous n'avons pas pu mettre en évidence de dominance ou de hiérarchie stricte entre les reines. Deux hypothèses ont été émises pour expliquer la diminution de la fécondité qui affecte toutes les reines en sociétés polygynes: -. inhibition mutuelle entre reines, -. coordination et efficacité plus faible en sociétés polygynes. Afin d'intégrer la polygynie dans un cadre évolutif l'hypothèse du "mutualisme" est proposée comme alternative à l'hypothèse de la sélection de parentèle (kin selection).
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Objectif Le but de cette recherche est d'observer un possible rôle de la gémellité dans la qualité de l'interaction précoce mère-enfant et dans le développement de l'attachement à une année par rapport à des non-jumeaux respectivement prématurés et non prématurés selon l'observation directe selon la description des enfants par leurs mères. Méthode Il s'agit d'une étude longitudinale exploratoire qui vise à comparer les compétences sociales et communicatives de trois populations: prématurés respectivement jumeaux et non- jumeaux ainsi qu'enfants nés à terme non-jumeaux à 4, 6, 12 et 18 mois. Cette recherche est réalisée dans le cadre de deux études prospectives menées au Service Universitaire de Psychiatrie de l'Enfant et de l'Adolescent sur le devenir des grands prématurés. Les outils utilisés sont le CARE-Index qui évalue la qualité de l'interaction mère-enfant, la situation étrange qui détermine le type d'attachement de l'enfant et le Toddler tempérament scale (TTS) qui permet d'apprécier le tempérament de l'enfant tel que perçu par leurs mères. Limites Les deux principales limites de ce travail sont certainement le nombre restreint de sujets observés et le fait que les sujets étudiés proviennent de deux études différentes et soient comparés entre eux. Les questionnaires du TTS remplis par les mères représentent également une limite car peuvent comporter une part de "désirabilité sociale". Résultats Cette étude a permis de retrouver les résultats de certaines théories de base de l'interaction mère-enfant et du processus d'attachement en les appliquant à un groupe de jumeaux prématurés. Nous avons retrouvé des différences significatives dans les résultats du CARE- Index qui suggère que la gémellité influencerait la qualité de l'interaction précoce. Celle-ci ne semble par contre pas empêcher le développement d'un attachement secure à une année.
Resumo:
Les acteurs du système judiciaire prennent des décisions à des niveaux différents. La distribution des rôles et des responsabilités se définissent par des procédures et des formes d'organisations qui varient parfois fortement d'une juridiction à l'autre. Ainsi, selon le contexte particulier et la nature de la tâche, le forensicien peut par exemple décider lui-même de cibler la recherche d'indices sur des lieux ou d'effectuer des traitements particuliers sur une trace. Il est susceptible dans d'autres rôles de recommander des pistes d'enquête ou d'évaluer la valeur probante d'un indice au profit d'une autorité judiciaire qui prend les décisions de condamnation. De mauvais choix peuvent aboutir in fine à des erreurs judiciaires. Comme les décisions se prennent sur la base d'informations incertaines et incomplètes, les risques d'erreurs doivent s'évaluer dans des cadres formels bien maîtrisés. L'erreur "acceptable" devient ainsi un thème crucial, surtout lorsque les systèmes automatisés sont susceptibles de prendre certaines décisions, notamment dans le cadre du contrôle de l'identité.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Dans le cadre de la politique multiculturelle de protection des minorités menée par le gouvernement taïwanais, le Comité ministériel aux affaires hakka (keweihui) a planifié dix-huit « halls culturels hakkas » dans chaque comté et municipalité. L'article retrace le processus de création d'un de ces halls, dans le nord de l'île de Taiwan, au cours de la décennie 2000. L'aménagement du hall procède à l'incorporation d'artistes locaux dans une tradition nationale hakka réinventée. Il est montré comment sa genèse s'est produite à l'intersection d'une politique impulsée par « le haut » et d'un projet émanant d'acteurs locaux. L'article met en évidence comment les catégories yingti (hardware) et ruanti (software) président à sa fabrication et impliquent une opposition et une complémentarité entre « contenant » et « contenu », entre « État » et « société », qui agissent à toutes les étapes de sa mise en oeuvre.
Resumo:
In vascular plants, the best-known feature of a differentiated endodermal cell is the "Casparian Strip" (CS). This structure refers to a highly localized cell wall impregnation in the transversal and anticlinal walls of the cell, which surrounds the cell like a belt/ring and is tightly coordinated with respect to neighboring cells. Analogous to tight junctions in animal epithelia, CS in plants act as a diffusion barrier that controls the movement of water and ions from soil into the stele. Since its first description by Robert Caspary in 1865 there have been many attempts to identify the chemical nature of the cell wall deposition in CS. Suberin, lignin, or both have been claimed to be the important components of CS in a series of different species. However, the exact chemical composition of CS has remained enigmatic. This controversy was due to the confusion and lack of knowledge regarding the precise measurement of three developmental stages of the endodermis. The CS represent only the primary stage of endodermal differentiation, which is followed by the deposition of suberin lamellae all around the cellular surface of endodermal cells (secondary developmental stage). Therefore, chemical analysis of whole roots, or even of isolated endodermal tissues, will always find both of the polymers present. It was crucial to clarify this point because this will guide our efforts to understand which cell wall biosynthetic component becomes localized in order to form the CS. The main aim of my work was to find out the major components of (early) CS, as well as their spatial and temporal development, physiological roles and relationship to barrier formation. Employing the knowledge and tools that have been accumulated over the last few years in the model plant Arabidopsis thaliana, various histological and chemical assays were used in this study. A particular feature of my work was to completely degrade, or inhibit formation of lignin and suberin biopolymers by biochemical, classical genetic and molecular approaches and to investigate its effect on CS formation and the establishment of a functional diffusion barrier. Strikingly, interference with monolignol biosynthesis abrogates CS formation and delays the formation of function diffusion barrier. In contrast, transgenic plants devoid of any detectable suberin still develop a functional CS. The combination of all these assays clearly demonstrates that the early CS polymer is made from monolignol (lignin monomers) and is composed of lignin. By contrast, suberin is formed much later as a secondary wall during development of endodermis. These early CS are functionally sufficient to block extracellular diffusion and suberin does not play important role in the establishment of early endodermal diffusion barrier. Moreover, suberin biosynthetic machinery is not present at the time of CS formation. Our study finally concludes the long-standing debate about the chemical nature of CS and opens the door to a new approach in lignin research, specifically for the identification of the components of the CS biosynthetic pathway that mediates the localized deposition of cell walls. I also made some efforts to understand the patterning and differentiation of endodermal passage cells in young roots. In the literature, passage cells are defined as a non- suberized xylem pole associated endodermal cells. Since these cells only contain the CS but not the suberin lamellae, it has been assumed that these cells may offer a continued low-resistance pathway for water and minerals into the stele. Thus far, no genes have been found to be expressed specifically in passage cells. In order to understand the patterning, differentiation, and physiological role of passage it would be crucial to identify some genes that are exclusively expressed in these cells. In order to identify such genes, I first generated fluorescent marker lines of stele-expressed transporters that have been reported to be expressed in the passage cells. My aim was to first highlight the passage cells in a non-specific way. In order to find passage cell specific genes I then adapted a two-component system based on previously published methods for gene expression profiling of individual cell types. This approach will allow us to target only the passage cells and then to study gene expression specifically in this cell type. Taken together, this preparatory work will provide an entry point to understand the formation and role of endodermal passage cells. - Chez les plantes vasculaires, la caractéristique la plus commune des cellules différentiées de l'endoderme est la présence de cadres de Caspary. Cette structure correspond à une imprégnation localisée des parties transversales et anticlinales de la paroi cellulaire. Cela donne naissance, autour de la cellule, à un anneau/cadre qui est coordonné par rapport aux cellules voisines. De manière analogue aux jonctions serrées des épithéliums chez les animaux, les cadres de Caspary agissent chez les plantes comme barrière de diffusion, contrôlant le mouvement de l'eau et des ions à travers la racine entre le sol et la stèle. Depuis leur première description par Robert Caspary en 1865, beaucoup de tentatives ont eu pour but de définir la nature chimique de ces cadres de Caspary. Après l'étude de différentes espèces végétales, à la fois la subérine, la lignine ou les deux ont été revendiquées comme étant des composants importants de ces cadres. Malgré tout, leur nature chimique exacte est restée longtemps énigmatique. Cette controverse provient de la confusion et du manque de connaissance concernant la détermination précise des trois stades de développement de l'endoderme. Les cadres de Caspary représentent uniquement le stade primaire de différentiation de l'endoderme. Celui-ci est suivi par le second stade de différentiation, la déposition de lamelles de subérine tout autour de la cellule endodermal. De ce fait, l'analyse chimique de racines entières ou de cellules d'endoderme isolées ne permet pas de séparer les stades de différentiation primaire et secondaire et aboutit donc à la présence des deux polymères. Il est également crucial de clarifier ce point dans le but de connaître quelle machinerie cellulaire localisée à la paroi cellulaire permet l'élaboration des cadres de Caspary. En utilisant les connaissances et les outils accumulés récemment grâce à la plante modèle Arabidopsis thaliana, divers techniques histologiques et chimiques ont été utilisées dans cette étude. Un point particulier de mon travail a été de dégrader ou d'inhiber complètement la formation de lignine ou de subérine en utilisant des approches de génétique classique ou moléculaire. Le but étant d'observer l'effet de l'absence d'un de ces deux polymères sur la formation des cadres de Caspary et l'établissement d'une barrière de diffusion fonctionnelle. De manière frappante, le fait d'interférer avec la voie de biosynthèse de monolignol (monomères de lignine) abolit la formation des cadres de Caspary et retarde l'élaboration d'une barrière de diffusion fonctionnelle. Par contre, des plantes transgéniques dépourvues d'une quantité détectable de subérine sont quant à elles toujours capables de développer des cadres de Caspary fonctionnels. Mises en commun, ces expériences démontrent que le polymère formant les cadres de Caspary dans la partie jeune de la racine est fait de monolignol, et que de ce fait il s'agit de lignine. La subérine, quant à elle, est formée bien plus tard durant le développement de l'endoderme, de plus il s'agit d'une modification de la paroi secondaire. Ces cadres de Caspary précoces faits de lignine suffisent donc à bloquer la diffusion extracellulaire, contrairement à la subérine. De plus, la machinerie de biosynthèse de la subérine n'est pas encore présente au moment de la formation des cadres de Caspary. Notre étude permet donc de mettre un terme au long débat concernant la nature chimique des cadres de Caspary. De plus, elle ouvre la porte à de nouvelles approches dans la recherche sur la lignine, plus particulièrement pour identifier des composants permettant la déposition localisée de ce polymère dans la paroi cellulaire. J'ai aussi fais des efforts pour mettre en évidence la formation ainsi que le rôle des cellules de passage dans les jeunes racines. Dans la littérature, les cellules de passage sont définies comme de la cellule endodermal faisant face aux pôles xylèmes et dont la paroi n'est pas subérisée. Du fait que ces cellules contiennent uniquement des cadres de Caspary et pas de lamelle de subérine, il a été supposé qu'elles ne devraient offrir que peu de résistance au passage de l'eau et des nutriments entre le sol et la stèle. Le rôle de ces cellules de passage est toujours loin d'être clair, de plus aucun gène s'exprimant spécifiquement dans ces cellules n'a été découvert à ce jour. De manière à identifier de tels gènes, j'ai tout d'abord généré des marqueurs fluorescents pour des transporteurs exprimés dans la stèle mais dont l'expression avait également été signalée dans l'endoderme, uniquement dans les cellules de passage. J'ai ensuite développé un système à deux composants basé sur des méthodes déjà publiées, visant principalement à étudier le profil d'expression génique dans un type cellulaire donné. En recoupant les gènes exprimés spécifiquement dans l'endoderme à ceux exprimés dans la stèle et les cellules de passage, il nous sera possible d'identifier le transriptome spécifique de ces cellules. Pris dans leur ensemble, ces résultats devraient donner un bon point d'entrée dans la définition et la compréhension des cellules de passage.
Resumo:
En Suisse, comme dans la plupart des pays industrialisés, le stress au travail et l'épuisement qui en découle sont devenus, au cours des dernières décennies, une réalité qui ne cesse de s'accentuer. Différentes disciplines scientifiques ont tenté de rendre compte, depuis le milieu du siècle dernier, des difficultés rencontrées par les individus dans le cadre de leur travail, avec une prédominance marquée pour des analyses de type causaliste. Dans le cadre de cette étude doctorale, nous nous sommes penché sur le cas d'un office régional de placement, mais avec une perspective sensiblement différente. La grille de lecture psychodynamique utilisée permet en effet de donner accès au sens des situations de travail et d'ouvrir sur une compréhension originale des mécanismes à l'origine des problèmes de santé mentale au travail. Cette approche permet ainsi de comprendre les rapports complexes que les individus entretiennent avec leur travail tel que structuré et organisé, et d'analyser leur expérience en termes de plaisir, de souffrance, de défenses face à la souffrance et de répercussions sur la santé. Dans ce but, nous avons utilisé une méthodologie basée sur des entrevues collectives, afin de stimuler l'expression libre des travailleurs. L'enquête s'est déroulée en deux temps : une première série d'entretiens de groupe a permis la récolte des données empiriques, puis une seconde série, appelée entretiens de restitution, a donné la possibilité aux participants de réagir sur l'interprétation de leur parole faite par le chercheur, et de valider l'analyse. Nos résultats mettent alors en évidence que le travail, tel qu'organisé au sein de cette institution de service public, apparaît considérablement pathogène, mais heureusement compensé par le pouvoir structurant de la relation d'aide aux assurés. Ils montrent également que l'expérience subjective de travail des participants a pour principales sources de souffrance la perception désagréable d'un manque de reconnaissance, d'autonomie et de pouvoir sur leurs actes. - In Switzerland and in other industrialized countries, work-related stress and resulting burn-out has become an ever increasing problem in recent decades. Many researchers Jrom many different fields have made efforts to understand the difficulties employees encounter at work since the middle of the last century. Most of this research is based on a cause and effect analysis approach. For this doctoral research project, we have analyzed cases handled by an unemployment office in Switzerland. We have taken a novel approach by using a number of psychodynamic criteria which permitted us to interpret situations at work and to open up a new way of understanding the mechanisms at work which lead to mental health problems. This approach allows us to understand account the complex relationship people have towards structured and organized work as well as to take into account and to analyze their experience in terms of pleasure, suffering, defense mechanisms against suffering and the consequences on their mental health. In order to achieve this goal we performed collective interviews in order to encourage workers to express themselves freely. The interviews were divided into two series. The first series of group interviews allowed us to collect empirical statistics and the second series gave the workers an opportunity to react to the researchers ' analysis of their answers and to validate the researchers ' interpretation of their answers. Our results show that work has considerable negative effects on mental health. Fortunately, these negative effects are counterbalanced by the psychological support system offered by the unemployment office. Our project also shows that the subjective negative experiences of workers are caused by their perceptions of being under-appreciated, lack of autonomy and having no power over their acts.
Resumo:
High fructose consumption is associated with obesity and characteristics of metabolic syndrome. This includes insulin resistance, dyslipidemia, type II diabetes and hepatic steatosis, the hepatic component of metabolic syndrome. Short term high fructose consumption in healthy humans is considered as a study model to increase intrahepatocellular lipids (IHCL). Protein supplementation added to a short term high fructose diet exerts a protective role on hepatic fat accumulation. Fructose disposal after an acute fructose load is well established. However, fructose disposal is usually studied when a high intake of fructose is ingested. Interaction of fructose with other macronutrients on fructose disposal is not clearly established. We wanted to assess how fructose disposal is modulated with nutritional factors. For the first study, we addressed the question of how would essential amino acid (EAA) supplemented to a high fructose diet have an impact on hepatic fat accumulation? We tried to distinguish which metabolic pathways were responsible for the increase in IHCL induced by high fructose intake and how those pathways would be modulated by EAA. After 6 days of hypercaloric high fructose diet, we observed, as expected an increase in IHCL modulated by an increase in VLDL-triglycerides and an increase in VLDL-13C-palmitate production. When adding a supplementation in EAA, we observed a decrease in IHCL but we could not define which mechanism was responsible for this process. With the second study, we were interested to observe fructose disposal after a test meal that contained lipid, protein and a physiologic dose of fructose co-ingested or not with glucose. When ingested with other macronutrients, hepatic fructose disposal is similar as when ingested as pure fructose. It induced oxidation, gluconeogenesis followed by glycogen synthesis, conversion into lactate and to a minor extent by de novo lipogenesis. When co- ingested with glucose decreased fructose oxidation as well as gluconeogenesis and an increased glycogen synthesis without affecting de novo lipogenesis or lactate. We were also able to observe induction of intestinal de novo lipogenesis with both fructose and fructose co- ingested with glucose. In summary, essential amino acids supplementation blunted increase in hepatic fat content induced by a short term chronic fructose overfeeding. However, EAA failed to improve other cardiovascular risk factors. Under isocaloric condition and in the frame of an acute test meal, physiologic dose of fructose associated with other macronutrients led to the same fructose disposal as when fructose is ingested alone. When co-ingested with glucose, we observed a decrease in fructose oxidation and gluconeogenesis as well as an increased in glycogen storage without affecting other metabolic pathways. - Une consommation élevée en fructose est associée à l'obésité et aux caractéristiques du syndrome métabolique. Ces dernières incluent une résistance à l'insuline, une dyslipidémie, un diabète de type II et la stéatose hépatique, composant hépatique du syndrome métabolique. À court terme une forte consommation en fructose chez l'homme sain est considérée comme un modèle d'étude pour augmenter la teneur en graisse hépatique. Une supplémentation en protéines ajoutée à une alimentation riche en fructose de courte durée a un effet protecteur sur l'accumulation des graisses au niveau du foie. Le métabolisme du fructose après une charge de fructose aiguë est bien établi. Toutefois, ce dernier est généralement étudié quand une consommation élevée de fructose est donnée. L'interaction du fructose avec d'autres macronutriments sur le métabolisme du fructose n'est pas connue. Nous voulions évaluer la modulation du métabolisme du fructose par des facteurs nutritionnels. Pour la première étude, nous avons abordé la question de savoir quel impact aurait une supplémentation en acides aminés essentiels (AEE) associé à une alimentation riche en fructose sur l'accumulation des graisses hépatiques. Nous avons essayé de distinguer les voies métaboliques responsables de l'augmentation des graisses hépatiques induite par l'alimentation riche en fructose et comment ces voies étaient modulées par les AEE. Après 6 jours d'une alimentation hypercalorique riche en fructose, nous avons observé, comme attendu, une augmentation des graisses hépatiques modulée par une augmentation des triglycérides-VLDL et une augmentation de la production de VLDL-13C-palmitate. Lors de la supplémentation en AEE, nous avons observé une diminution des graisses hépatiques mais les mécanismes responsables de ce processus n'ont pas pu être mis en évidence. Avec la seconde étude, nous nous sommes intéressés à observer le métabolisme du fructose après un repas test contenant des lipides, des protéines et une dose physiologique de fructose co-ingéré ou non avec du glucose. Lorsque le fructose était ingéré avec les autres macronutriments, le devenir hépatique du fructose était similaire à celui induit par du fructose pur. Il a induit une oxydation, suivie d'une néoglucogenèses, une synthèse de glycogène, une conversion en lactate et dans une moindre mesure une lipogenèse de novo. Lors de la co-ngestion avec du glucose, nous avons observé une diminution de l'oxydation du fructose et de la néoglucogenèse et une augmentation de la synthèse du glycogène, sans effet sur la lipogenèse de novo ni sur le lactate. Nous avons également pu mettre en évidence que le fructose et le fructose ingéré de façon conjointe avec du glucose ont induit une lipogenèse de novo au niveau de l'intestin. En résumé, la supplémentation en acides aminés essentiels a contrecarré l'augmentation de la teneur en graisse hépatique induite par une suralimentation en fructose sur le court terme. Cependant, la supplémentation en AEE a échoué à améliorer d'autres facteurs de risque cardiovasculaires. Dans la condition isocalorique et dans le cadre d'un repas test aiguë, la dose physiologique de fructose associée à d'autres macronutriments a conduit aux mêmes aboutissants du métabolisme du fructose que lorsque le fructose est ingéré seul. Lors de la co-ngestion avec le glucose, une diminution de l'oxydation du fructose est de la néoglucogenèse est observée en parallèle à une augmentation de la synthèse de glycogène sans affecter les autres voies métaboliques.