1000 resultados para Femmes mariées--Gestion du temps--Ontario--Enquêtes
Male beach workers and western female tourists : livelihood strategies in Kenya's south coast region
Resumo:
Recent years have seen an emerging knowledge base and increasing public interest and awareness of sexual-economic relationships between local men and Western women, in different touristic regions around the world. However, to date, Western perspectives on the phenomenon make up the bulk of the existent literature. Questioning the dominant discourse of 'romance tourism' and representations of male participants as 'victims-opportunists', this dissertation explores male beach workers' experiences with, and perspectives on sexual-economic relationships between Kenyan men and visiting Western women in Kenya's South Coast region. The men were not considered in isolation; their experiences and perspectives are situated in relation to their family ties, social networks and the political economy of beach tourism. The study shows that locally these relationships are clearly understood as livelihood strategies for the visited. Men seek to establish long-term intimate relationships with female tourists as a means to accessing life's basic necessities for themselves and for their families and overall to improve their standards of living. It is argued that these relationships are a response to the poverty and inequalities generated by socio-economic changes over time. They are also a response to local gender role prescriptions that hinge male social value on men's capacity to marry, procreate and provide intergenerational social and economic support. The men's parallel quest for non-sexual economically motivated friendships with visiting foreign tourists termed "family friends" is a salient finding, that serves to reinforce the finding that the sexual- economic relationships are above all livelihood strategies. Résumé Ces dernières années ont vu l'émergence d'une base de connaissance, ainsi que d'un intérêt et d'une prise de conscience accrue du public, à l'égard des relations économico-sexuelles entre hommes locaux et femmes occidentales, dans différentes régions touristiques du monde. Cependant, à ce jour, des perspectives occidentales sur ce phénomène constituent l'essentiel de la littérature existante. En remettant en question le discours dominant du «romance tourism» (tourisme sentimental) et les représentations qui conçoivent les hommes participants comme étant 'victimes-opportunistes', cette thèse explore les expériences, et les visions qu'ont les travailleurs de plage sur les relations économico-sexuelles entre hommes Kenyans et femmes Occidentales dans la région de la côte sud du Kenya. Les hommes n'ont pas été considérés de manière isolée; leurs expériences et leurs perspectives sont situées par rapport à leur liens familiaux, leur réseaux sociaux et aussi par rapport à l'économie politique du tourisme balnéaire. L'étude montre que sur place ces relations sont clairement conçues comme des stratégies de survie pour les participants hôtes. Les hommes cherchent à établir des relations de long durée avec des femmes touristes comme moyen d'accéder à des biens et des services qui constituent des nécessités de bases, pour eux et pour leur familles et globalement pour relever leur niveau de vie! L'étude fait valoir que ces relations sont une réponse à la pauvreté et aux inégalités sociales crées par des dynamiques socio-économiques au fil du temps. Elles sont aussi une réponse au prescriptions sociales locales par lesquelles la valeur sociale masculine est définie à travers la capacité des hommes à se marier, à procréer et d'assurer un soutien intergénérationnel social et économique. La quête, en parallèle, de relations d'amitiés non-sexuelles à motivation économique, dénommé « family friends », par des hommes, est un résultat saillant de cette étude qui vient renforcer l'observation que les relations économico-sexuelles relèvent avant tout des stratégies de survie.
Resumo:
Introduction 1-La notion de transport a l'avantage de se laisser aborder sous des angles aussi variés que passionnants. Elle est en effet ancrée dans les fondements de notre société moderne à tous les échelons et a de tout temps constitué un sujet d'étude et de recherche de premier plan. 2-Si les échanges ont connu une véritable "explosion" avec le développement des moyens modernes que l'on sait (moteur, électricité), les historiens voient dans le Néolithique leur véritable point de départ'. S'en suivent de longs siècles qui verront le développement d'un réseau routier de plus en plus dense et de moyens de transport plus ou moins rapides et sophistiqués. 3-Il va sans dire que la notion de transport est intimement liée à celle de commerce. L'on peut même douter de l'existence de ce dernier sans le premier et rejoindre ainsi l'opinion qui fixe leur apparition simultanément, à savoir trois mille ans avant notre ère. 4-Au fil du temps, le commerce donnera naissance à un nombre important d'us et coutumes formant le terreau de notre droit des contrats ; logiquement, le monde des transports n'a pas échappé à cette ébauche de réglementation, dont est issue une législation extraordinairement étayée. 5-Ce domaine constitue un sujet d'étude des plus intéressants en raison de la diversité des questions qu'il soulève, d'une part, et de son rôle dans notre société, d'autre part. La matière ne fait étonnamment l'objet que de peu d'attention en droit suisses, et ce malgré les changements importants intervenus ces derniers temps en transports ferroviaire, aérien, ou encore fluvial. 6-Nous proposons dès lors de présenter l'état du droit suisse sur une question précise, à savoir la responsabilité du transporteur en cas de perte, avarie et/ou livraison tardive de la marchandise. Nous dresserons un tableau de la situation dans les divers modes de transports et comparerons les résultats obtenus, en nous interrogeant sur les éventuelles différences et leur pertinence. Ces développements seront précédés d'un chapitre de droit romain abordant en particulier la question de la responsabilité du transporteur.
Resumo:
Dans cette étude rétrospective, nous reportons des données relatives à la chimiothérapie chez des patients atteints d'adénocarcinome pancréatique avancé, avec attention à la durée du temps qui passe entre le dernier traitement et la mort. En outre, nous analysons des paramètres cliniques et de laboratoire, enregistrés à la dernière chimiothérapie, avec le but d'identifier des facteurs de risque pour un décès proche. L'analyse rétrospective est effectuée sur des patients avec adénocarcinome pancréatique avancé, qui ont bénéficié au moins d'une ligne de chimiothérapie. Nous avons enregistré les données concernant la chimiothérapie (régimes, lignes et date de la dernière administration) et avons choisi et enregistré des facteurs cliniques et de laboratoire, qui étaient récoltés à la dernière chimiothérapie (performance status, présence d'ascite, hémoglobine, leucocytes, plaquettes, bilirubine totale, albumine, LDH, protéine C-réactive et Ca19-9). Des analyses statistiques (univariée et multivariée) sont effectuées pour étudier la relation entre ces facteurs et le temps de survie, à la recherche de facteurs prédictifs de mort imminente. Nous avons analysé les données de 231 patients: hommes/femmes, 53/47%; métastatique/localement avancé, 80/20%; âge médian 66 ans (gamme 32-85). Tous les patients sont décédés à cause de la progression de la maladie. La survie globale médiane est 6.1 mois (95% Cl 5.1-7.2). Lors de la dernière chimiothérapie, le performance status est 0-1 pour 37% et 2 pour 63% des patients. Cinquante-neuf pour cent des patients reçoivent une ligne de chimiothérapie, 32, 8 et 1% reçoivent des chimiothérapies de deuxième, troisième, quatrième ligne, respectivement. L'intervalle entre la dernière administration de chimiothérapie et le décès est <4 semaines pour 24%, 4-12 semaines pour 47% et >12 semaines pour 29% des patients. La survie médiane à partir de la dernière chimiothérapie jusqu'au décès est 7.5 semaines (95% Cl 6.7-8.4). L'ascite, la leucocytose, des valeurs élevées de bilirubine, LDH, protéine C- réactive et Ca19-9, et des valeurs abaissées d'albumine sont associés à une survie plus courte à l'analyse univariée; néanmoins, aucun de ces facteurs n'est corrélé à la survie de façon significative à l'analyse multivariée. Nous en concluons qu'une proportion significative de patients avec adénocarcinome pancréatique avancé reçoit la chimiothérapie dans le dernier mois de vie, et que les paramètres cliniques et de laboratoire enregistrés à la dernière chimiothérapie ne prédisent pas une survie plus courte.
Resumo:
Résumé - De la dyschronie chez les enfants instables, hypothèse d'une difficulté d'instauration d'un temps transitionnel. Du syndrome d'asynergie motrice et mentale de Wallon (1925) au déficit d'inhibition du comportement de Barkley (1997), l'agitation de l'enfant a souvent été liée à une difficulté à penser, organiser et partager les représentations inhérentes à la temporalité. La dyschronie, telle que formulée par Gibello (1976), constitue une théorie heuristique pour penser ce défaut de symbolisation du temps. Pour mieux comprendre ces phénomènes, plusieurs épreuves projectives (Rorschach, TAT, dessins) ont été proposées à un jeune garçon instable dyschronique. Les analyses mettent en évidence une discontinuité des capacités représentatives. Si une différence entre un protocole Rorschach qui s'est révélé restreint et un TAT abondant en constitue le premier signe, des indices spécifiques montrent une difficulté d'instauration d'une aire de jeu imaginaire stable ou plus précisément un manque de continuité dans les phénomènes transitionnels (Winnicott, 1975). Peut-on dès lors envisager un lien entre la difficulté de représentation des transformations (Gibello, 2004) et ce déficit d'instauration, non plus seulement d'un espace, mais aussi d'un temps où se représentent les transitions ?
Resumo:
Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.
Resumo:
S'inscrivant dans le domaine de l'analyse des relations temporelles dans les textes, la présente étude est consacrée à la notion du futur définie en tant qu'anticipation sur les événements à venir dans le récit. Ainsi, la recherche en question se propose de mettre en lumière les différents mécanismes d'anticipation propres aux récits d'aventures au Moyen Âge. Recourant aux moyens heuristiques existants (les bases de la théorie de la réception telle qu'elle est représentée dans les travaux de Jauss, Eco et Greimas), cette thèse se concentre sur l'étude du prologue de l'oeuvre littéraire dont elle élabore une grille de lecture particulière qui tient compte de la complexité de la notion du futur envisagée aux plans grammatical (formes verbales du futur), rhétorique (la figure de la prolepse) et littéraire (les scénarios et les isotopies). La démarche de la lecture détaillée du prologue adoptée au cours de ce travail s'applique d'abord au Chevalier au Lion de Chrétien de Troyes, texte fondateur du corpus, qui constitue, pour parler avec Philippe Walter, un vrai « drame du temps ». L'étude des mécanismes d'anticipation mis en place dans le prologue se prolonge ensuite dans les chapitres consacrés à Claris et Laris et au Chevalier au Lion de Pierre Sala, deux réécritures du célèbre roman du maître champenois. Datant, respectivement, du XIIIe et du début du XVIe siècle, ces oeuvres permettent de saisir le chemin parcouru par le futur dans son aspect thématique et diachronique, ce qui est particulièrement propice au repérage des critères qui influencent l'attente du lecteur par rapport aux événements à venir au fil des siècles. Ainsi, à côté des moyens d'expression « standards » du futur (scénarios intertextuels et isotopies), la présente recherche fait apparaître d'autres facteurs qui influencent l'anticipation, notamment le procédé de la disputatio, le recours à la satire, la démarche de l'engagement indirect et l'opposition vers/prose. La seconde partie de la thèse qui traite, d'un côté, des récits consacrés à la fée Mélusine de Jean d'Arras et de Coudrette, du Livre du Cuer d'amours espris de René d'Anjou de l'autre, sert à vérifier dans quelle mesure la démarche choisie s'applique à des oeuvres du Moyen Âge tardif qui combinent des éléments empruntés à la tradition antérieure avec des éléments d'autre provenance. L'analyse de Mélusine et du Livre du Cuer conduit à ajouter deux facteurs supplémentaires qui influencent l'attente du lecteur, à savoir la démarche de l'engagement partiel et le recours au genre judiciaire. Cette étude démontre que le traitement du futur est d'un enjeu capital pour lire les textes du Moyen Âge, car il permet au lecteur, dès le prologue, de reconnaître la fin vers laquelle tend le récit et de faire par là- même une lecture enrichie, supérieure à d'autres. Telling the Future in the Middle Ages : from the Prologue to the Narrative. From Chrétien de Troyes ' Chevalier au Lion to Pierre Sala 's Chevalier au Lion. Part of the analyses of the time based relations within the texts, the present study deals with the notion of future characterized as an anticipation of the events to come in the narrative. Therefore, the purpose of this research is to bring to light the various mechanisms of anticipation peculiar to the narratives of adventures in the Middle Ages. Making the use of the existing heuristic instruments (the bases of the theory of the reception as it presents itself in the works by Jauss, Eco and Greimas), this thesis is dedicated to the study of the prologue of the work of fiction by means of a particular key for reading which takes into account the complexity of the notion of future with regard to its grammatical side (future tenses), to its rhetorical side (prolepse) and to its literary side (scenario and isotopy). First of all, the close reading of the prologue used in this work is applied to Chrétien de Troyes's Chevalier au Lion (Lion Knight), the founding text of our literary corpus, which represents, according to Philippe Walter, the real « drama of Time ». Then, the study of the mechanisms of anticipation in the prologue is carried over to the chapters devoted to Claris et Laris and to Pierre Sala's Chevalier au Lion, two romances that rewrite Chrétien de Troyes' famous work. Written, respectively, in the XIIIth and in the beginning of the XVI century, these romances enable the reader to ascertain the changes in the manner of telling the future from the thematic and diachronic point of view : this is particularly convenient to the identification of the criteria which influence the reader's expectations relative to the future events in the course of the centuries. Therefore, next to the « standard » means of expression of future (intertextual scenario and isotopy), the present study reveals other factors which influence the anticipation, in particular the method of the disputatio, the use of the satire, the approach of the indirect commitment and the verse/prose opposition. The second part of the thesis which deals with the narratives concerning the fairy Melusine written by Jean d'Arras and by Coudrette on one hand, with René d'Anjou's Livre du Cuer d'amours espris on the other hand, is used to verify to what extent the chosen approach applies to the works of fiction of the Late Middle Ages that combine the elements from the previous tradition with the elements of other origin. The analysis of Melusine's romances and of the Livre du Cuer brings us to add two new factors which influence the reader's expectations : the approach of the partial commitment, and the use of the legal discourse. This study demonstrates that the manner of telling the future is of the utmost importance to read the texts of the Middle Ages, because it enables the reader to know the end of the story from the very beginning, from the prologue, thus leading to a richer and superior reading.
Resumo:
Se basant sur leurs thèses de doctorat respectifs, les auteurs mènent une réflexion commune autour de la production de règles sociales informelles suite à la réduction et à la flexibilisation du temps de travail dans différents contextes. Ils montrent que ces règles conventionnelles, qui réaffirment des comportement collectifs là où une forte individualisation serait possible, ont autant une fonction de performance (faciliter l'organisation et la coordination des actes, réduire les efforts réflexifs) qu'une fonction intégratrice (permettre aux employés d'exister en tant qu'individus dans l'entreprise).
Resumo:
Les fouilles menées entre 1988 et 1991 sur la parcelle du Clos d'Aubonne, à La Tour-de-Peilz, ont mis au jour 578 tombes contenant les ossements de près de 850 individus. Ces sépultures constituent l'essentiel d'une vaste nécropole qui s'est développée à quelque 500 m au sud-est du vicus romain de Viviscus/Vevey, en bordure de l'ancienne voie qui mène au col du Grand Saint-Bernard. L'analyse détaillée des structures et du mobilier permet de définir trois phases chronologiques, échelonnées entre la deuxième moitié du Ve et la première moitié du IXe siècle. Au fil du temps se manifestent des signes d'une présence burgonde discrète, puis d'influences du monde franc. Plusieurs indices montrent que, dès le VIe siècle, cette nécropole est devenue le lieu d'inhumation de familles importantes. Certaines d'entre elles sont restées attachées à cet espace funéraire jusqu'à l'époque carolingienne, malgré l'absence d'un édifice voué au culte chrétien. Le second volume de la publication réunit des études spécifiques: l'analyse anthropologique des squelettes, comprenant notamment une étude approfondie de l'état de santé de la population, l'étude et le catalogue des monnaies ainsi que le catalogue des découvertes funéraires antérieures aux fouilles de 1988-89. Le catalogue des tombes, illustré de nombreux relevés, et les planches du mobilier complètent ce volume.
Resumo:
Comprend : [Fig. à la Page de Titre : cartouche avec devise, ange et soldat.] In Hoc Signo Vinces. [Cote : Ye 669/Microfilm R 122335] ; [Fronstispice après la Page de Titre : Le Parnasse, Apolllon et les Muses.] [Cote : Ye 669/Microfilm R 122335] ; [Bandeau et lettre historiée folio Aiij : putti dessinant, travaillant la peinture, le modelage, la géométrie et la perspective. La reine Marie de Médicis offrant à Dieu la construction du Val-de-Grâce.] [Cote : Ye 669/Microfilm R 122335] ; [Fig. p.26 : allégories du Temps, de la Mort et de la Peinture (ou Postérité?), putti.] [Cote : Ye 669/Microfilm R 122335]
Resumo:
Comprend : [Frontispice : cariatides, putti et éléments d'architecture. Aigle avec devise : Semper Eadem.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fleuron en reg. folio i ii : portraits de Pétrarque et de Laure, en bas-reliefs sur une urne antique.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Carte en reg. folio i iiiii : carte de la région de Valclusa.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. folio X ij : le triomphe de l'Amour ou Cupidon. Laure et Pétrarque.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. en reg. p.181 : le triomphe de la Chasteté.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. p.185 : le triomphe de la Mort.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. p.191 : le triomphe de la Gloire.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. en reg. p.204 : le triomphe du Temps.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. p.206 : le triomphe de la Divinité ou de l'Eternité. La Sainte Trinité, le Père, le Christ et le Saint-Esprit. Les Elus.] [Cote : Res p Yd 113/Microfilm R 13186] ; [Fig. p.216 : marque de l'imprimeur (?). Aigle et devise latine.] [Cote : Res p Yd 113/Microfilm R 13186]
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.
Resumo:
Introduction: L'efficacité d'une séance de VNI est habituellement évaluée selon la réponse clinique, l'amélioration de l'acidose respiratoire et de l'hypercapnie. Le but de cette étude était d'évaluer l'intérêt de la mesure du CO2 en fin d'expiration (PETCO2) pour estimer la PaCO2 et son évolution dans le temps. Patients et Méthodes: Des patients de réanimation souffrant d'une insuffisance respiratoire aiguë hypercapnique (PaCO2 >45 mmHg) ont été inclus dans cette étude prospective. La PETCO2était mesurée à l'aide d'un capteur nasobuccal (SmartLine®, Oridion) au cours d'une séance de VNI de 60 minutes. Une gazométrie artérielle et la valeur de PETCO2 étaient enregistrées au début de la séance puis chaque 15 minutes. Des manoeuvres d'expiration complète passives et actives étaient effectuées à 30 et 60 minutes. Le gradient de CO2 (PaCO2- PETCO2) a été calculé pour l'ensemble des mesures, spécifiquement pour chaque manoeuvre d'expiration complète, ainsi qu'individuellement pour chaque patient. Ces grandeurs sont exprimées en moyenne et écart-type pour évaluer le biais et la dispersion observés entre PaCO2 et PETCO2. La différence entre chaque valeurs consécutives de gradient de CO2 (delta gradient de CO2) a été calculées par patient. Cette mesure quantifie la variation au cours du temps du gradient de CO2 pour un patient donné. Résultats: 11 patients ont été inclus (7 BPCO, 1 restrictif et 1 syndrome d'apnée du sommeil). Sur l'ensemble des mesures, le gradient de CO2 était de 14.7 + 10.6 mmHg, lors des manoeuvres d'expiration complètes active il était de 8.1 + 13.0 mmHg, et de 8.8 + 11.9 mmHg lors des expirations passives. Conclusion: Chez les patients présentant une insuffisance respiratoire aiguë hypercanique traitée par VNI, la mesure de la PETCO2 par capteur nasobuccal ne permet de prédire ni la valeur de PaCO2, ni son évolution dans le temps. Les manoeuvres d'expiration complète n'apportent aucune plus value.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Résumé Les experts forensiques en documents peuvent être confrontés à des écritures réalisées en conditions non conventionnelles. Ces circonstances atypiques pourraient être à l'origine d'une plus grande variabilité de la forme de l'écriture, en particulier lorsque des positions à priori inhabituelles du corps et / ou du support sont impliquées. En effet, en dépit de son aspect stéréotypé /standardisé évident, résultat d'un apprentissage par un modèle, notre écriture est caractérisée par une variabilité intrinsèque de la forme, qui évolue au cours du temps et qui, dans sa dimension qualitative, confère à l'écriture son caractère individuel. En d'autres termes, nous n'écrivons jamais deux fois de la même façon. Cette variabilité intraindividuelle (ou intra-variabilité) observée en condition conventionnelle, c'est-à-dire assis devant un support horizontal, pourrait augmenter en conditions non conventionnelles, par exemple dans une position inconfortable. Cela pourrait rendre plus difficile l'identification d'écrits apposés dans une condition non conventionnelle ou inconnue. Ne pas connaître les circonstances d'apposition d'une mention manuscrite ou ne pas s'interroger sur ces dernières, pourrait conduire l'expert à faire des erreurs d'appréciation. Et le simple fait d'étudier une trace sur laquelle le corps peut exercer une influence fait de l'expertise en écriture une spécialité qui se distingue des autres disciplines forensiques. En cela, la trace écrite diffère des autres types de traces "inanimées" (physiques, chimiques, bigchimiques) considérées comme invariables (mais potentiellement sensibles à d'autres phénomènes tels que la température, la pression atmosphérique...). En effet, le mouvement d'écriture étant commandé et contrôlé par le cerveau, cela lui confère une certaine variabilité. Il est donc assez logique de penser que la connaissance des mécanismes neuroscientifiques à l'origine de ce mouvement facilitera la compréhension des phénomènes observés d'un point de vue forensique. Deux expériences ont été menées afin de comparer les performances de sujets écrivant dans différentes conditions (conventionnelle vs. non conventionnelles). Les résultats ont montré que cinq des sept conditions non conventionnelles n'avaient pas d'impact significatif sur la variabilité d'écriture. L'ensemble des résultats fournit aux experts forensiques des pistes leur permettant de mieux appréhender les écritures rédigées dans des conditions inhabituelles.