1000 resultados para Période archaïque
Resumo:
Cette étude présente une analyse de l'évolution institutionnelle dans les Établissements français de l'Océanie (EFO, aujourd'hui la Polynésie française) durant la période 1880-1945. La particularité des EFO tient à ce qu'une partie de la population a reçu la citoyenneté française à l'annexion, l'autre partie ayant le statut de « sujets ». L'attention sera portée ici aux droits politiques effectifs plutôt qu'à ces catégorisations statutaires qui s'avèrent peu déterminantes. Ce sont plutôt des catégorisations racialistes qui sont sous-jacentes à l'attribution et la suppression des droits.
Resumo:
Abstract : Cardíac rhabdomyomas are benign cardiac tumors with few cardiac complications but with a known association to tuberous sclerosis that affects the neurologic outcome of the patients. Thís study analyses the long-term cardiac and neurological outcome of patients with cardiac rhabdomyomas in order to allow comprehensive prenatal counseling. qll prenatal and postnatal cases with echocardiographic diagnosis of cardiac rhabdomyomas encountered from August 1982 -September 2007 have been recorded. Independent factors, such às the number and the location of the tumors, have been analyzed for association with a diagnosis of tuberous sclerosis, in order to predict the cardiac and neurologic outcome of the patients. Cardiac complications include arrhythmias, outflow tract obstruction, secondary cardiogenic shock. Arrhythmias are the most often encountered problems during the neonatal period. Supraventricular tachycardia is the commonest rhythm disturbance identified. However, no specific dimension or location of the cardiac rhabdomyomas may predict the rhythm disturbances. The importance of the diagnosis of tuberous sclerosis in patients presenting with cardiac rhabdomyomas is exemplified by the neurodevelopmental complications showing 80% of cases with epilepsy and 63% of cases with a delayed development. The presence of multiple cardiac tumors in patients suggests a higher risk to be affected by tuberous sclerosis, compared to patients with a single tumor. Cardiac rhabdomyomas generally regress aftér birth and after the perinatal period cardiac-related problems are rare, but tuberous sclerosis and the associated neurodevelopmental complications dominate the clinical picture and should form an important aspect of the prenatal counseling of parents. Résumé : Les rhabdomyomes cardiaques sont des tumeurs cardiaques bénignes avec toutefois des complications. cardiaques possibles et surtout avec une association pour la sclérose tubéreuse de Bourneville qui détermine le pronostic neurologique. Cette étude présente une analyse du suivi cardiologique. et neurologique à long terme d'enfants avec un diagnostic de rhabdomyomes cardiaques dans le but de mieux informer les parents lors de la consultation anténatale. L'ensemble des cas de rhabdomyomes cardiaques diagnostiqués au moyen de l'échocardiographie pendant la période anténatale ainsi que postnatale a été répertorié d'août 1982 à septembre 2007. Des facteurs indépendants, tels que le nombre et la localisation des tumeurs, ont été analysés pour leur association avec le diagnostic de la sclérose tubéreuse de Bourneville, afin de prédire le pronostic cardiaque et neurologique de ces patients. Les complications cardiaques retrouvées sont les arythmies, les obstructions des voies d'éjection ventriculaire et le choc cardiogène secondaire. Les arythmies sont les problèmes les plus fréquemment rencontrés pendant la période néonatale.. La tachycardie supraventriculaire est le trouble de rythme le plus souvent identifié. Néanmoins, il n'y a pas de dimension ou de localisation.- spécifique d'un rhabdomyome cardiaque qui pourrait prédire ces troubles du rythme. L'importance de l'association au diagnostic de la sclérose tubéreuse de Bourneville chez les patients atteints de rhabdomyomes est démontrée à travers les complications du développement neurologique avec une attéinte épileptique dans 80% des cas ainsi qu'un retard de développement dans 63% des cas. La présence de multiples tumeurs cardiaques chez un patient suggère un risque accru d'être atteint de la sclérose tubéreuse de Bourneville comparé à un patient atteint d'une tumeur unique. Les rhabdomyomes cardiaques régressent après la naissance et après la période périnatale les complications cardiaques deviennent rares. Toutefois, l'association à la sclérose tubéreuse de Bourneville domine le tableau clinique avec des complications au niveau du développement neurologique et formé donc un aspect important lors de la consultation anténatale.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
Introduction: Les données épidémiologiques montrent que seuls25-30% des patients avec syndrome coronarien aigu (SCA) atteignentles valeurs cibles de LDL-cholestérol (LDL-C). Les recommandationsexistantes précisent le choix et le dosage des statines à utiliser enfonction du LDL-C cible souhaité. Le but de cette étude observationnelleétait de connaître les pratiques actuelles au CHUV avant d'introduireune étude d'intervention.Méthode: Pour être inclus, les patients devaient être admis au CHUVpour un SCA avec troponine positive (>= 0.1 microg/l) entre le23.11.2008 et le 29.05.2010. Un bilan lipidique complet (CT, HDL-C,LDL-C, TG) a été dosé à leur admission et un nouveau contrôle desparamètres lipidiques a été effectué à 3 mois. Les hypolipémiantsutilisés durant cette période ont été analysés pour chaque patient.Résultats: 141 patients, 101 hommes (âge moyen 63 ± 13 ans) et 40femmes (âge moyen 73 ± 13 ans) admis aux urgences pour un SCAavec troponine positive ont été inclus. La valeur moyenne du LDL-C àl'admission était de 3,4 ± 1,1 mmol/l (hommes 3,5 ± 1,1; femmes 3,3 ±1,1) et de 2,4 ± 0,8 mmol/l (hommes 2,4 ± 0,8; femmes 2,2 ± 0,7) aucontrôle de 3 mois. Parmi ces 141 patients, 52 (37%) étaient déjàtraités par une statine (36 hommes et 16 femmes). Leur valeur deLDL-C à l'admission était de 2,8 ± 0,9 mmol/l et de 2,5 ± 0,6 mmol/l aucontrôle de 3 mois. 7 patients (13%) ont eu une augmentation dudosage de leur statine, 14 patients (27%) ont eu un changement destatine et 31 patients (60%) n'ont eu aucune modification de leurtraitement. 89 patients n'avaient pas de statine (65 hommes et 24femmes) à leur admission mais ont quitté l'hôpital sous une statine.Leur valeur de LDL-C à l'entrée s'élevait à 3,8 ± 1 mmol/l et à 2,3 ± 0,8mmol/l au contrôle de 3 mois.Conclusion: Chez les patients hospitalisés pour un SCA mais sanstraitement par statine préalable, les résultats montrent une bonneadéquation (peut-être liée au hasard au vu d'une prescriptionstandardisée) entre le traitement prescrit et l'obtention d'un LDL-C ciblesouhaitable à 3 mois. Chez les patients déjà sous traitement de statine,les résultats montrent une faible baisse du LDL-C à 3 mois malgré leurrisque cardio-vasculaire plus élevé. Une prise en charge individualiséesemble d'autant plus nécessaire que le risque est élevé.
Resumo:
Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.
Resumo:
Rapport de synthese :Comparaison des effets vasculaires et tubulaires rénaux de plusieurs antagonistes des récepteurs de |'angiotensine II en combinaison avec un diurétique thiazidique chez l'humainObjectif : Le but de ce travail était d'investiguer si les antagonistes des récepteurs AT1 de l'angiotensine II (ARA2) entraînent un blocage équivalent des récepteurs au niveau vasculaire et au niveau rénal, en particulier lorsque le système rénine- angiotensine est stimulé par l'administration d'un diurétique thiazidique. Méthode : trente volontaires masculins en bonne santé ont participé à cette étude randomisée, contrôlée, en simple insu. Nous avons mesuré les variations de pression artérielle, d'hémodynamique rénale ainsi que la réponse tubulaire rénale à une perfusion d'angiotensine II 3ng/kg/min administrée sur 1 heure. Ceci avant traitement puis après sept jours d'administration, 24 heures après la dernière dose de médicament. Nous avons comparé l'irbésartan 300 mg seul ou en association avec 12.5 ou 25 mg d'hydrochlorothiazide. (irbésartan 300/12.5 ; irbésartan 300/25). Nous avons également comparé les effets de l'irbésartan 300/25 au losartan 100 mg, au valsartan 160 mg ainsi qu'à l'olmésartan 20 mg, tous administrés avec 25 mg d'hydrochlorothiazide. Chaque participant a été randomisé pour recevoir 2 traitements de 7 jours espacés d'une période d'une semaine sans traitement. Résultats: La réponse de la pression artérielle à |'angiotensine II exogène était bloquée >90% avec l'irbésartan 300 mg seul ou en association avec le diurétique. Il en était de même avec l'olmésartan 20/25. Par contre le blocage n'était que de 60% environ dans les groupes valsartan 160/25 et losartan 100/25. Au niveau rénal, |'angiotensine II exogène réduisait le flux plasmatique rénal de 36% en pré- traitement. Dans les groupes recevant l'irbésartan 300 mg et l'olmésartan 20 mg associés à l'hydrochlorothiazide 25 mg, la vasoconstriction rénale était bloquée presque entièrement alors qu'el|e ne |'était que partiellement avec le valsartan 160/25 et le losartan 100/25 (34 et 45%, respectivement). En pré-traitement, au niveau tubulaire, l'angiotensine II exogène réduisait le volume urinaire de 84% et l'excrétion urinaire de sodium de 65 %. Les effets tubulaires n'étaient que partiellement bloqués par l'administration d'ARA2. Conclusion: Ces résultats démontrent que les ARA; aux doses maximales recommandées ne bloquent pas aussi efficacement les récepteurs ATI au niveau tubulaire qu'au niveau vasculaire. Cette observation pourrait constituer une justification à l'hypothèse selon laquelle des doses plus importantes d'ARA2 seraient nécessaires afin d'obtenir une meilleure protection d'organe. De plus, nos résultats confirment qu'i| y a d'importantes différences entre les ARA2, relatives à leur capacité d'induire un blocage prolongé sur 24 heures des récepteurs AT1 au niveau vasculaire et tubulaire.
Resumo:
Objectif Un bolus unique d'étomidate inhibe une enzyme mitochondriale impliquée dans la synthèse du cortisol. Au sein de notre institution, tout patient candidat à une chirurgie cardiaque reçoit de l'étomidate à l'induction de l'anesthésie. L'objectif de cette étude a été de déterminer l'incidence des dysfonctions surrénaliennes chez les patients bénéficiant d'une chirurgie cardiaque et nécessitant de hautes doses de noradrénaline au cours de la période postopératoire. Type d'étude Étude rétrospective descriptive dans l'unité de réanimation d'un centre hospitalier universitaire. Patients et méthodes Soixante-trois patients admis en réanimation après chirurgie cardiaque nécessitant plus de 0,2μg/kg par minute de noradrénaline au cours des premières 48 heures postopératoires ont été étudiés. L'insuffisance surrénalienne absolue a été définie par un cortisol basal inférieur à 414nmo/l (15μg/dl), l'insuffisance surrénalienne relative par un cortisol basal entre 414nmo/l (15μg/dl) et 938nmo/l (34μg/dl) avec une augmentation de la cortisolémie (à 60 minutes après un test de stimulation par 250μg de corticotropine de synthèse) inférieure à 250nmo/l (9μg/dl). Résultats Quatorze patients (22 %) ont présenté une fonction surrénalienne normale, 10 (16 %) une insuffisance surrénalienne absolue et 39 (62 %) une insuffisance surrénalienne relative. Tous les patients ont reçu une substitution stéroïdienne, sans aucune différence d'évolution clinique entre les différents groupes. Conclusion L'incidence de l'insuffisance surrénalienne chez les patients qui ont reçu un bolus d'étomidate à l'induction, lors d'une chirurgie cardiaque avec circulation extracorporelle, et présenté une défaillance circulatoire postopératoire, est élevée.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
L'athérosclérose (ATS) est une maladie artérielle inflammatoire chronique à l'origine des nombreuses maladies cardiovasculaires que sont l'infarctus du myocarde, l'accident vasculaire cérébral ou encore l'artériopathie oblitérante des membres inférieurs. L'ATS se définit comme la formation de plaques fibro-lipidiques dans l'intima des artères. Les facteurs de risque majeurs associés à l'ATS sont l'hypertension, l'hypercholestérolémie, le tabagisme, le diabète, la sédentarité, ou encore des prédispositions génétiques. L'ATS peut être asymptomatique durant des années ou alors engendrer des complications aiguës pouvant parfois mettre le pronostic vital en jeu. Les complications les plus graves surviennent principalement lors de la rupture d'une plaque athéromateuse dite vulnérable ou instable. En effet, cette dernière peut se rompre et entraîner la formation d'un thrombus artériel occlusif avec, pour conséquence, l'ischémie/nécrose des tissus en aval. Prévenir le développement de la plaque vulnérable et/ou la « stabiliser » permettrait donc de prévenir les complications cliniques de l'ATS. Cet objectif requiert une connaissance éclairée des mécanismes cellulaires et moléculaires impliqués dans la physiopathologie de l'ATS et de la plaque vulnérable. Les travaux expérimentaux menés au sein du laboratoire du service d'angiologie du CHUV sous la direction du Prof. Lucia Mazzolai ont montré que l'angiotensine II (ang II), produit final de la cascade du système rénine-angiotensine, joue un rôle majeur dans la « vulnérabilité » des plaques athéromateuses (1). Ces travaux ont été réalisés à partir d'un modèle animal original développant des plaques d'ATS vulnérables dépendantes de l'ang II: la souris ApoE-/- 2 reins-1 clip (2K1C). Plus récemment, le laboratoire d'angiologie a mis en évidence une implication directe des leucocytes, plus précisément des macrophages et des lymphocytes T CD4+, dans l'athérogenèse ang II-dépendante (2,3). Dernièrement, des travaux ont également suggéré un rôle possible des granulocytes neutrophiles dans l'ATS (4,5,6,7). Toutefois, les études sont encore limitées de sorte que le rôle exact des neutrophiles dans l'ATS et plus spécialement dans l'ATS induite par l'ang II reste à démontrer. Une des recherches actuelles menée dans le laboratoire est donc d'étudier le rôle des neutrophiles dans le développement de la plaque athéromateuse vulnérable à partir du modèle animal, la souris ApoE-/- 2K1C. Pour évaluer le rôle direct des neutrophiles chez notre modèle animal, nous avons choisi comme méthode la déplétion des neutrophiles circulants par l'utilisation d'un anticorps spécifique. Il a été reporté dans la littérature que l'anticorps monoclonal NIMP-R14 3 permettait de dépléter sélectivement in vivo les neutrophiles dans différents modèles murins (8,9). Cependant, ces études ont utilisé cet anticorps anti-neutrophiles majoritairement sur des périodes expérimentales de durées relativement limitées (12-14 jours) et la question s'est donc posée de savoir si cet anticorps pouvait aussi dépléter les neutrophiles chez notre modèle animal, qui requiert une période expérimentale de 4 semaines pour développer des plaques vulnérables (1). Le but de ce travail a donc été de produire l'anticorps NIMP-R14 et d'évaluer son efficacité chez la souris ApoE-/- 2K1C qui développe des plaque d'ATS vulnérables dépendantes de l'ang II.
Resumo:
Le diable et l'artiste est une plongée dans l'atmosphère «démoniaque » qui régnait en Russie au passage du dix-neuvième au vingtième siècle. Au moment où la Russie, tout comme l'Europe, connaît un vif engouement pour l'ésotérisme, l'occultisme et la théosophie, les écrivains et les artistes s'emparent de la figure diabolique et l'adaptent à leur époque. Après le diable grandiose et solitaire de la période romantique, les symbolistes transforment et stylisent ce personnage, l'incarnant en de, multiples avatars, tantôt majestueux, tantôt petits et mesquins. Le sentiment apocalyptique qui imprègne le tournant du siècle, bientôt confirmé par les bouleversements socio-historiques, renforce encore le mysticisme des artistes et des écrivains, qui invoquent la présence du démon pour mieux comprendre le monde. Dans cet ouvrage, Fanny Mossière montre que la représentation symboliste du diable se caractérise par un «brouillage », un flou, une indétermination : toujours ambigu, insaisissable, «autre », le démon est difficile à percevoir. C'est le cas dans deux romans essentiels pour la période symboliste, L'ange de feu de Valerij Brjusov et Un démon de petite envergure de Fedor Sologub, qui mettent respectivement en scène le personnage mi-angélique mi-démoniaque de Madiel', et nedotykomka, démon informe et inquiétant. Le Maître et Marguerite de Mihail Bulgakov, plus tardif, s'inscrit dans la lignée du mouvement artistique et esthétique symboliste, tant au niveau stylistique que pour sa démonologie débridée. Enfin, une étude de l'oeuvre picturale de Mihail Vrubel', et plus particulièrement de son Démon, complète ce «portrait du diable » à l'orée du vingtième siècle.