1000 resultados para pour-on
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
Acute kidney injury is common in critical illness and associated with important morbidity and mortality. Continuous renal replacement therapy (CRRT) enables physicians to safely and efficiently control associated metabolic and fluid balance disorders. The insertion of a large central venous catheter is required, which can be associated with mechanical and infectious complications. CRRT requires anticoagulation, which currently relies on heparin in most cases although citrate could become a standard in a near future. The choice of the substitution fluid depends on the clinical situation. A dose of 25 ml/kg/h is currently recommended.
Resumo:
Signals detected with functional brain imaging techniques are based on the coupling of neuronal activity with energy metabolism. Techniques such as positron emission tomography (PET) and functional magnetic resonance imaging (fMRI) allow the visualization of brain areas that are activated by a variety of sensory, motor or cognitive tasks. Despite the technological sophistication of these brain imaging techniques, the precise mechanisms and cell types involved in coupling and in generating metabolic signals are still debated. Recent experimental data on the cellular and molecular mechanisms that underlie the fluorodeoxyglucose (FDG) - based PET imaging point to a critical role of a particular brain cell type, the astrocytes, in coupling neuronal activity to glucose utilization. Indeed, astrocytes possess receptors and re-uptake sites for a variety of neurotransmitters, including glutamate, the predominant excitatory neurotransmitter in the brain, In addition, astrocytic end-feet, which surround capillaries, are enriched in the specific glucose transporter GLUT-1. These features allow astrocytes to "sense" synaptic activity and to couple it with energy metabolism. In vivo and in vitro data support the following functional model: in response to glutamate released by active neurons, glucose is predominantly taken up by astrocytic end-feet; glucose is then metabolized to lactate which provides a preferred energy substrate for neurons. These data support the notion that astrocytes markedly contribute to the FDG-PET signal.
Resumo:
RESUME: L'objectif de cette étude était de déterminer l'impact de la grossesse non compliquée sur l'onde de pouls de la pression aortique centrale. Méthode 66 femmes au total avec une grossesse simple ont été réparties en trois groupes selon le stade de leur gestation: premier trimestre (T1, n=22), deuxième trimestre (T2, n=20) et troisième trimestre (T3, n=24). Le groupe contrôle (C, n=21) était constitué de femmes non enceintes, en bonne santé habituelle, prenant une contraception oestroprogestative. La tonométrie d'aplanation a été utilisée pour l'acquisition des ondes de pouls centrale un appareil disponible dans le commerce (SphygmoCor) permet l'enregistrement de l'onde de pouls périphérique avec un tonomètre d'aplanation de l'artère radiale au niveau du poignet, puis effectue sa transformation en sa forme centrale, grâce à une analyse de Fourrier et une fonction de transfert. L'influence des ondes réfléchies sur l'onde de pouls a été déterminée non seulement pendant la systole (augmentation systolique), comme on procède habituellement dans l'analyse de l'onde de pouls, mais aussi pendant la diastole (augmentation diastolique). Résultats Au cours de la grossesse, les pressions centrales systolique et diastolique sont restées inchangées et comparables aux valeurs mesurées chez les femmes qui ne sont pas enceintes. Dans le groupe contrôle, l'augmentation systolique s'élevait à 8.1±7.5% de la pression de pouls ; il n'y avait pas de différence statistiquement significative avec les valeurs obtenues chez les femmes enceintes, et ce, à n'importe quel stade de la grossesse (T1 : 4.6±11.4%, T2: 5.0±9.3%, T3 : 4.7±8.1%). Par contre, l'amplitude de l'augmentation diastolique diminuait avec la progression de la grossesse (C 6.5±2.4%, T1 : 5.2±3.1%, T2 : 3.8±2.6%; P=0.002 versus C; T3 : 2.3±2.0%; P<0.0001 versus C et P=0.004 versus T 1). Conclusion La grossesse ne modifie pas la forme de l'onde de pouls systolique centrale, ce qui implique de la part du système cardiovasculaire une adaptation fine à la demande croissante de flux sanguin, et ce, à tous les stades de la grossesse. Par contre, l'amplitude de l'onde de réflexion atteignant l'aorte pendant la diastole diminue progressivement au cours de la grossesse. Perspectives De récentes études montrent qu'une valeur anormalement haute de l'augmentation systolique de la pression centrale, comme on peut la déterminer avec la tonométrie d'aplanation, pourrait être un indice de trouble hypertensif de la grossesse débutant. Cette technique simple pourrait être d'autant plus facile à mettre en oeuvre si les valeurs normales pour l'augmentation systolique étaient indépendantes du stade de la grossesse, comme le suggèrent nos résultats, du moins pour les mesures prises en position assise.
Resumo:
RESUME La radiothérapie est utilisée avec succès pour le traitement d'un grand nombre de pathologies tumorales (1). Cependant, les récidives post-actiniques sont associées à un risque accru de développer des métastases régionales et à distance (2, 3). La prise en charge de ce type de patients demeure insatisfaisante à l'heure actuelle, principalement parce que les mécanismes physio-pathologiques sous- sous-jacents restent mal compris. Etant donné le rôle primordial du stroma dans la progression tumorale (4) et l'importance des effets de la radiothérapie sur le micro-environnement des tumeurs (5), nous avons émis l'hypothèse que la radiothérapie pouvait engendrer des modifications stromales susceptibles de contribuer à l'émergence d'un phénotype tumoral plus agressif. Nous avons observé que l'exposition préalable d'un environnement tumoral à des radiations ionisantes engendre une inhibition locale et à long terme de l'angiogenèse. Cette inhibition conduit à la création d'un environnement tumoral hypoxique favorisant l'invasion et la métastatisation tumorale. Les mécanismes sous-jacents impliquent l'activation de gènes prométastatiques sous le contrôle du facteur de transcription HIF-1, ainsi que la sélection hypoxique de cellules hautement invasives et métastatiques. Par des analyses de profile d'expression génétique ainsi que par des analyses fonctionnelles, nous avons identifié la protéine matri-cellulaire CYR61 ainsi que ses partenaires d'interaction, les intégrines aVb5/aVb3, comme médiateurs importants de ces effets. De plus, une corrélation significative a également été trouvée entre le niveau d'expression de CYR61 et le taux d'hypoxie dans un grand nombre de carcinomes mammaires chez l'humain. Une association a aussi été observée entre le niveau d'expression de CYR61 et le pronostic de patientes souffrant d'un cancer du sein traité par chimiothérapie adjuvante. Globalement ces résultats identifient l'interaction entre la protéine CYR61 et ses récepteurs aVb5/aVb3 comme un mécanisme important du processus de métastatisation et en font une cible thérapeutique potentielle pour le traitement de patients souffrant d'une récidive tumorale après un traitement de radiothérapie. Finalement, bien que l'inhibition de l'angiogenèse soit locale dans ce cas particulier, nos résultats justifient une surveillance particulière des patients souffrant d'une pathologie tumorale et étant au bénéfice d'un traitement inhibiteur de l'angiogenèse. SUMMARY Radiotherapy is successfully used to treat a large variety of tumours (1 ). However, cancer patients experiencing local recurrent disease after radiation therapy are at increased risk of developing regional and distant metastasis (2, 3). The clinical management of this condition represents a difficult and challenging issue, mainly because the underlying physio-pathological mechanisms remain poorly understood. Given the well established role of the tumour stroma in promoting cancer progression (4) and since radiotherapy is known to persistently alter the tumour microenvironment (5), we hypothesized that ionising radiations may generate stromal modifications contributing to the metastatic spread of relapsing tumours. Here, we report that irradiation of the prospective tumour microenvironment promotes tumour invasion and metastasis through a mechanism of local and sustained impairment of angiogenesis leading to both HIF-1 dependent activation of pro-metastatic genes and hypoxia-mediated selection of highly metastatic tumour cell variants. Through gene expression profiling and functional experiments, we identified the matricellular signalling protein CYR61 and its interaction partners aVb5/ aVb3 integrins as critical mediators of these effects. Furthermore, we found a significant correlation between CYR61 expression and the hypoxic status of a large number of human mammary carcinomas. A positive correlation between increased levels of CYR61 expression and shorter relapse free survival was also identified in breast cancer patients treated with adjuvant chemotherapy. Together, these results identify CYR61 and aVb5/aVb3 integrins as critical mediators of metastasis and potential therapeutic targets to improve outcome in patients with post-radiation tumour recurrences. Finally, although inhibition of angiogenesis is local in this setting, our data warrant close monitoring of tumour progression in patients under anti-angiogenic therapy.
Resumo:
Premiers mots : « Pour ce que plusieurs gens de diverses nacions et contrées se delectent et prennent plaisir, comme j'ay fait le temps passé, à veoir le monde... ». Derniers mots : «... En ces Espaignes et en Arragon a grant multitude de Sarrazins et de Juifz, qui tiennent terres, maisons et prossessions, et communiquent avecques les crestiens. Et les tiennent les roys, pour le prouffit qu'ilz ont d'eulx ». Suit la rubrique : « Ce livre a fait le roy d'armes de Berry, herault du roy de France, des pays et regions où il a esté en son vivant, avec les fleuves et cités principaulx de toute crestienté. Doxa Theo ». Armoiries.
Resumo:
Objective: This pilot study aims at assessing Constructive Thinking in a sample of adolescent offenders and in a normative sample of adolescents. Method: 66 adolescent offenders (12-18 years) were compared to 540 control adolescents on the different subscales of the "Constructive Thinking Inventory". Results and Conclusion: Adolescent offenders show a less efficient Constructive Thinking: they show cognitive styles that may hamper their ability to take appropriate decisions when facing stressful situations, increasing self-defeating behaviors. Interventions may focus on improving adequate coping with stress.
Resumo:
Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.
Resumo:
Effet d'un bolus intraveineux de phénylephrine ou d'éphedríne sur le flux sanguin cutané lors d'une anesthésie rachidienne Introduction : La phénylephrine et l'éphedrine sont des substances vaso-actives utilisées de routine pour corriger des épisodes d'hypotension artérielle induits par l'anesthésie intrarachidienne. L'influence de ces deux vasopresseurs sur le flux sanguin cutané (FSC) dans ce contexte n'a jusqu'à maintenant pas été décrite. Cette étude évalue l'effet d'une injection intraveineuse de 75 µg de phénylephrine ou de 7.5 mg d'éphedrine sur le FSC mesuré par Laser Doppler, dans les zones concernées parle bloc sympathiqué induit par l'anesthésie intrarachidienne (membres inférieurs) et dans les zones non concernées (membres supérieurs). Méthode :Après acceptation par le Comité d'Éthique, et obtention de leur accord écrit, 20 patients devant subir une intervention chirurgicale élective en décubitus dorsal sous anesthésie. intrarachidienne ont été inclus dans cette étude randomisée en double insu. Le FSC a été mesuré en continu par deux sondes fixées l'une à la cuisse (zone avec bloc sympathique) et l'autre sur l'avantbras (zone sans bloc sympathique). Les valeurs de FSC ont été enregistrées après l'anesthésie rachidienne (valeur contrôle), puis après l'injection i.v. dè phénylephrine (10 patients) ou d'éphedrine (10 patients) pour corriger une hypotension définie comme une chute de 20 mmHg de la pression artérielle systolique. Les variations de FSC exprimées en pourcentage de la valeur contrôle moyenne (+/- écart type) ont été analysées par le test t de Student. Résultats :Les données démographiques des patients et le niveau sensitif induit par l'anesthésie rachidienne sont similaires dans les deux groupes. Aux doses utilisées, seule l'éphedrine restaure la pression artérielle aux valeurs précédant l'anesthésie rachidienne. La phénylephrine augmente le FSC de l'avant-bras de 44% (+/- 79%) et de la cuisse de 34% (+/-24%), alors que l'éphedrine diminue le débit sanguin cutané de l'avant-bras de 16% (+/- 15%) et de la cuisse de 22% (+/-11%). Conclusion : L'injection intraveineuse de phénylephrine et d'éphedrine ont des effets opposés sur le flux sanguin cutané, et cette réponse n'est pas modifiée par le bloc sympathique.. Cette différence peut s'expliquer par la distribution des sous-types de récepteurs adrénergiques alpha et leur prédominance relative dans les veines et les artères de différents diamètres perfusant le tissu sous-cutané et la peau. L'éphedrine, èn raison de sa meilleure efficacité pour traiter les épisodes d'hypotension artérielle après anesthésie intrarachidienne devrait être préféré à la phénylephrine, leurs effets opposés sur le flux sanguin cutané n'étant pas pertinents en pratique clinique. SUMMARY Background: Phenylephrine or ephedrine is routinely used to correct hypotensive episodes fallowing spinal anaesthesia (SA). The influence of these two vasopressors on skin blood flow (SBF) has not yet been described. We have therefore evaluated the effects of an i.v. bolus of 75 µg phenylephrine or 7.5 mg of ephedrine on SBF measured by laser Doppler flowmetry during sympathetic blockade induced by SA. Methods: With Ethical Committee approval and written consent, 20 patients scheduled for elective procedures in supine position under SA were enrolled in this double-blind randomized study. SBF was measured continuously by two probes fixed at the thigh (area with sympathic blockade) and forearm level (area without sympathic blockade) respectively. SBF values were recorded after SA (control values) and then after a bolus administration of phenylephriné (n=10) or ephedrine (n=10) when systolic blood pressure decreased by 20 mmHg. Changes were expressed as percentage of control SBF values and analysed by Student's paired t-test. Results: Patient characteristics and dermatomal sensory levels were similar in both groups. Phenylephrine increases mean SBF at the forearm level by 44% (79%) [mean (SD)j and at the thigh by 34% (24%). Ephedrine decreases SBF at the forearm level by 16% (15%) and at the thigh by 22% (il%). Ephedrine bolus restores arterial blood pressure to pre-anaesthesia values, whereas phenylephrine does not. Conclusion: Administratión of phenylephrine and ephedrine has opposite effects on skin blood flow and sympathetic blockade does not modify this response. These findings could be explained by the distribution of the alpha-adrenoréceptor subtypes and their relative predominance among veins and arteries of different size perfusing the subcutaneous tissue and the skin. Ephedrine, due to its better efficacy to correct hypotensive episodes following SA, should be preferred, to phenylephrine, their opposite effects on SBF being not relevant for clinical practice.
Resumo:
Some chronic diseases--like renal failure, liver insufficiency, chronic lung disease, cardiac involvement, diabetes mellitus, asplenia--present limited defects of the immune system and/or a higher risk of infection; therefore, patients with such pathologies should get selective vaccinations. The efficacy of immunization decreases with disease progression; for this reason, these patients should be immunized as soon as possible. At the beginning of their disease, these patients do not need a specialized treatment and are followed by the general practitioner alone who is in charge of immunizing them as well as contact people of any immunocompromised patient. OFSP's regular vaccinations programme is recommended, as well as selective vaccinations against influenza, pneumococci and viral hepatitis, depending on the underlying chronic disease.
Resumo:
The aim of this article is to provide guidance to family doctors on how to tutor students about effective screening and primary prevention. Family doctors know their patients and adapt national and international guidelines to their specific context, risk profile, sex and age as well as to the prevalence of the disorders under consideration. Three cases are presented to illustrate guideline use according to the level of evidence (for a 19-year-old man, a 60-year-old woman, and an 80-year-old man). A particular strength of family medicine is that doctors see their patients over the years. Thus they can progressively go through the various prevention strategies, screening, counselling and immunisation, accompanying their patients with precious advice for their health throughout their lifetime.
Resumo:
Recurrence of cardiovascular events and mortality remain high after acute coronary syndromes. A Swiss multicentric study, "Inflammation and acute coronary syndromes (ACS)--Novel strategies for prevention and clinical managements", is currently underway with the support of the Swiss National Science Foundation. The study includes a clinical research subproject of which the aim is to assess the impact of the ELIPS program (multi-dimEnsionaL prevention Program after acute coronary Syndrome) on the recurrence of cardiovascular events after an ACS. The basic research sub-projects aim to investigate novel cardiovascular risk biomarkers and genetic determinants of recurrence and to study the role of stem cells after an ACS. Another sub-project will evaluate intracoronary imaging techniques and the efficacy of different types of stents.
Resumo:
RESUME La méthode de la spectroscopie Raman est une technique d'analyse chimique basée sur l'exploitation du phénomène de diffusion de la lumière (light scattering). Ce phénomène fut observé pour la première fois en 1928 par Raman et Krishnan. Ces observations permirent à Raman d'obtenir le Prix Nobel en physique en 1930. L'application de la spectroscopie Raman a été entreprise pour l'analyse du colorant de fibres textiles en acrylique, en coton et en laine de couleurs bleue, rouge et noire. Nous avons ainsi pu confirmer que la technique est adaptée pour l'analyse in situ de traces de taille microscopique. De plus, elle peut être qualifiée de rapide, non destructive et ne nécessite aucune préparation particulière des échantillons. Cependant, le phénomène de la fluorescence s'est révélé être l'inconvénient le plus important. Lors de l'analyse des fibres, différentes conditions analytiques ont été testées et il est apparu qu'elles dépendaient surtout du laser choisi. Son potentiel pour la détection et l'identification des colorants imprégnés dans les fibres a été confirmé dans cette étude. Une banque de données spectrale comprenant soixante colorants de référence a été réalisée dans le but d'identifier le colorant principal imprégné dans les fibres collectées. De plus, l'analyse de différents blocs de couleur, caractérisés par des échantillons d'origine inconnue demandés à diverses personnes, a permis de diviser ces derniers en plusieurs groupes et d'évaluer la rareté des configurations des spectres Raman obtenus. La capacité de la technique Raman à différencier ces échantillons a été évaluée et comparée à celle des méthodes conventionnelles pour l'analyse des fibres textiles, à savoir la micro spectrophotométrie UV-Vis (MSP) et la chromatographie sur couche mince (CCM). La technique Raman s'est révélée être moins discriminatoire que la MSP pour tous les blocs de couleurs considérés. C'est pourquoi dans le cadre d'une séquence analytique nous recommandons l'utilisation du Raman après celle de la méthode d'analyse de la couleur, à partir d'un nombre de sources lasers le plus élevé possible. Finalement, la possibilité de disposer d'instruments équipés avec plusieurs longueurs d'onde d'excitation, outre leur pouvoir de réduire la fluorescence, permet l'exploitation d'un plus grand nombre d'échantillons. ABSTRACT Raman spectroscopy allows for the measurement of the inelastic scattering of light due to the vibrational modes of a molecule when irradiated by an intense monochromatic source such as a laser. Such a phenomenon was observed for the first time by Raman and Krishnan in 1928. For this observation, Raman was awarded with the Nobel Prize in Physics in 1930. The application of Raman spectroscopy has been undertaken for the dye analysis of textile fibers. Blue, black and red acrylics, cottons and wools were examined. The Raman technique presents advantages such as non-destructive nature, fast analysis time, and the possibility of performing microscopic in situ analyses. However, the problem of fluorescence was often encountered. Several aspects were investigated according to the best analytical conditions for every type/color fiber combination. The potential of the technique for the detection and identification of dyes was confirmed. A spectral database of 60 reference dyes was built to detect the main dyes used for the coloration of fiber samples. Particular attention was placed on the discriminating power of the technique. Based on the results from the Raman analysis for the different blocs of color submitted to analyses, it was possible to obtain different classes of fibers according to the general shape of spectra. The ability of Raman spectroscopy to differentiate samples was compared to the one of the conventional techniques used for the analysis of textile fibers, like UV-Vis Microspectrophotometry (UV-Vis MSP) and thin layer chromatography (TLC). The Raman technique resulted to be less discriminative than MSP for every bloc of color considered in this study. Thus, it is recommended to use Raman spectroscopy after MSP and light microscopy to be considered for an analytical sequence. It was shown that using several laser wavelengths allowed for the reduction of fluorescence and for the exploitation of a higher number of samples.
Resumo:
Rapport de synthèse : Introduction : La perfusion isolée de membre (isolated limb perfusion, ou ILP) par TNF-alpha et melphalan, utilisés en association, est une stratégie de prise en charge chirurgicale des sarcomes non opérables des extrémités. Elle a été en partie développée au CHUV dans les années 1990, sous l'impulsion du Professeur F. Lejeune, ancien Chef du Service d'oncologie médicale (CePO). Les résultats des 31 premiers patients ont été publiés en 2000 dans l'European Journal of Surgical Oncology. Les données dans la littérature manquant sur les résultats à long terme, nous avons revu tous les patients traités au CHUV depuis 1992 pour tenter des de déterminer ces résultats à long terme, en se focalisant sur l'efficacité du traitement, symbolisée par le taux de sauvetage de membres, autrement condamnés à l'amputation ou à une chirurgie mutilante. Matériel et méthode : Etude rétrospective. De 1992 à mars 2006, 51 patients ont été traités par ILP dans notre institution, certains à deux reprises (58 ILP au total). Quatre-vingt-huit pour cent présentaient un sarcome de haut grade de malignité, et 84% une tumeur localement avancée (T2b NO Mo ou plus). Résultats : Le follow-up moyen est de 38.9 mois (4-159, médiane 22 mois), on note 21 % de complications immédiates et 23% de complications tardives ou chroniques. Une réponse complète (nécrose totale ou disparition de la tumeur) a été observée dans 25% des cas, une réponse partielle (>50% de nécrose ou de diminution de taille tumorale) dans 42%, une stabilité de la maladie dans 14% et une progression tumorale dans 14%. Un traitement adjuvant a été entrepris dans 31 % des cas, une résection des résidus tumoraux a pu être effectuée chez 65% des patients. On note un taux de récidive locale de 35% (après 20,3 mois en moyenne) et un taux de récidive à distance de 45% (après 13,4 mois en moyenne). Le disease-free survival est de 14,9 mois et la survie à 5 ans de 43,5%. Le taux d'amputation s'élève à 24%. Conclusion : La perfusion isolée de membre est un traitement grevé d'un taux élevé de complications, mais il peut étre entrepris dans les sarcomes les plus sévères avec un succès significatif. Ainsi, dans notre série, une chirurgie mutilante (en général l'amputation) a pu être épargnée à 76% des patients.
Resumo:
Cette thèse propose de passer en revue les modalités de la représentation écrite de l'oralité en français. La pratique littéraire constitue le matériau et l'horizon de la théorisation. La problématique - comment l'écrit représente-t-il l'oral ? - est d'abord située et reformulée dans le cadre de la linguistique de la parole (I). Les rapports entre oralité et scripturalité sont ensuite étudiés sous trois angles. L'angle biotechnologique compare la matérialité et l'affordance des signaux graphiques et des signaux acoustiques (II 1). L'examen sémiotique reconnaît dans le français écrit un système dit phonographique dont la fonction est de représenter l'expression des signes du français oral. Sont analysées alors les relations entre les systèmes de signes impliqués, la diversité des actualisations possibles du système phonographique (effets d'écoute), ainsi que diverses sémiotiques analogiques (II 2). On étudie ensuite le rôle de la prosodie dans la lecture. La position adoptée est la suivante : bien qu'elle soit facultative dans l'activité de lecture, la prosodie est spécialement sollicitée par des écrits qu'on peut caractériser linguistiquement. L'interprétation prosodique apporte à ces écrits un surcroît de signification en même temps qu'il produit un mode spécifique de représentation de l'oral appelé effet prosodique (II 3). L'angle sémantique est esquissé finalement : il conduit à dégager deux modalités de représentation supplémentaire. Pour la première, l'oral se situe sur le plan sémantico-référentiel de l'expression écrite (écrire à propos d'oral) ; pour la seconde, l'oral est un extérieur discursif modalisant le dire écrit : l'écrit est reconnu comme énoncé à la manière de l'oral (effet de style oral). - This PhD thesis attempts to review the modalities of orality in written representation. Literary writings act as the material for theorization. First of all, the thesis statement - how does writing represent oral - is situated and then, reformulated within the frame of linguistique de la parole (the linguistic field of speech) (I). The connections between orality and writing are then studied under three angles. The biotechnological angle compares the materiality and the affordance of graphic signs and acoustic signals (II 1). A semiotic examination acknowledges, in French, a phonographical system whose function is to represent the expression of French oral signs. Thus, the relationships between the systems of implicated signs, the diversity of possible actualisations of the phonographic system (voice effects), as well as various analogical semiotics are analysed (II 2). Furthermore, the role of prosody is studied within reading. The stand taken is the following : even though it is optional during a reading activity, prosody is especially sought-after by linguistically characterised writings. The prosodie interpretation brings to these writings a surge of signification while producing a specific mode of oral representation called the prosodie effects (II 3). The semantic angle is finally drawn : it leads to two additional modalities of representation. For the first part, speech is located on the semantic and referential plan of the written expression (writing about speech); as for the second part, spoken language is a discursive exteriority : writing is recognised as an oral-like utterance {oral-like effect).