999 resultados para Utilisation du territoire
Resumo:
Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.
Resumo:
Chaque année, près de 14000 personnes sont victimes d'un accident vasculaire cérébral (AVC) en Suisse (1). Parmi elles, 3000-4000 individus décèdent des suites de leur attaque et environ 2000 personnes survivent avec des séquelles qui peuvent être relativement importantes. Cette affection a donc un poids non négligeable en terme de morbidité et de mortalité ; dans les pays indistrualisés, elle représente la première cause de handicap, la deuxième cause de démence ainsi que la troisième cause de mortalité. Il existe deux types d'AVC : les accidents ischémiques et les accidents hémorragiques (2,3). Dans environ 80% des cas, les AVC sont des accidents ischémiques, résultant d'une occlusion artérielle ou veineuse - les ischémies sur occlusion veineuse étant rares en comparaison de celles sur occulsion artérielle. En outre, on parle d'accident ischémiques transitoires (AIT) lorsque les symptomes sont spontanément résolutifs en moins de 24 heures. Les accidents hémorragiques, quant à eux, ne constituent qu'une minorité des AVC (20%) et sont secondaires à une rupture de vaisseau. La physiopathologie des différents types d'AVC a été particulièrement bien étudiée, ce qui a permis de mettre en évidence un certain nombre de causes. Un AVC peut donc être d'origine cardiaque (embole à point de départ cardiaque, fibrillation auriculaire), d'origine athéromateuse (embole sur plaque d'athéromatose des vaisseaux pré-cérébraux) ou encore, la conséquence directe d'une hypertension artérielle (maladie des petits vaisseaux, hémorragies intracérébrales) (3). Il existe également des causes un peu moins fréquentes, telles que les dissections aortiques, les ruptures d'anévrisme, les malformations artério-veineuses, les états pro-coagulants, les vasculites, la prise de toxiques. De nombreux facteurs de risque ont été mis en évidence (3). Certains d'entre eux, tels que l'âge, le sexe ou l'éthnie, ne sont pas modifiables. Mais il en est d'autres sur lesquels il est possible d'avoir un impact positif et leur identification fait donc partie intégrante du bilan de base chez les patients victimes d'AVC. Il s'agit de l'hypertension artérielle, du diabète, du tabagisme actif et de l'hypercholestérolémie. La présentation clinique de l'AVC est fonction du territoire vasculaire touché (3). Historiquement, la localisation et la compréhension des fonctions cérébrales ont été le fruit de corrélations anatomo-clinique puis radiologico-clinique (2). Dans la majorité des cas, on étudiait la partie commune à toutes les lésions de différents patients présentant un symptôme, et cette partie était présumée responsable de cette fonction. Néanmoins, le patient pouvait présenter d'autres symptômes associés, ce qui peut représenter un certain biais. A l'heure actuelle, l'imagerie fonctionnelle remplace progressivement ces corrélations radiologico- cliniques (2). Finalement, des études de cas isolés, avec lésions relativement circonscrites, ont également contribués à la compréhension des fonctions cérébrales (4-12). Le but principal de cette étude est d'analyser les syndromes cliniquement isolées (CIS, atteinte d'une fonction cérébrale, d'un segment corporel) dans le registre lausannois des accidents vasculaires cérébraux en terme de facteurs de risques, et de caractéristiques de l'AVC (origine, localisation) afin de déterminer des facteurs indépendants de survenue de telles atteintes, d'un point de vue général et pour chacune d'entre elles.
Resumo:
Le ROTEM est un test de coagulation réalisable au près du malade qui permet d'objectiver la coagulopathie, de distinguer la contribution des différents éléments du système de coagulation et de cibler les produits procoagulants comme le plasma frais congelé (PFC), les plaquettes, le fibrinogène et les facteurs de coagulation purifiés ou les antifibrinolytiques. 3 des tests disponibles pour le ROTEM sont: EXTEM, INTEM, HEPTEM. Le premier test est stable sous hautes doses d'héparine alors que le deuxième est très sensible à sa présence. Dans le dernier test on rajoute de l'héparinase pour mettre en évidence l'éventuel effet résiduel de l'héparine en le comparant à l'INTEM. Idéalement, le ROTEM devrait être effectué avant la fin du bypass cardiopulmonaire (CEC), donc sous anticoagulation maximale pas héparine, afin de pouvoir administrer des produits pro¬coagulants dans les délais les plus brefs et ainsi limiter au maximum les pertes sanguines. En effet la commande et la préparation de certains produits procoagulants peut prendre plus d'une heure. Le but de cette étude est de valider l'utilisation du ROTEM en présence de hautes concentrations d'héparine. Il s'agit d'une étude observationnelle prospective sur 20 patients opérés électivement de pontages aorto-coronariens sous CEC. Méthode : l'analyse ROTEM a été réalisée avant l'administration d'héparine (TO), 10 minutes après l'administration d'héparine (Tl), à la fin de la CEC (T2) et 10 minutes après la neutralisation de l'anticoagulation avec la protamine (T3). L'état.d'héparinisation a été évalué par l'activité anti-Xa à T1,T2,T3. Résultats : Comparé à TO, la phase de polymérisation de la cascade de coagulation et l'interaction fibrine-plaquettes sont significativement détériorées par rapport à Tl pour les canaux EXTEM et HEPTEM. A T2 l'analyse EXTEM et INTEM sont comparables à celles de EXTEM et HEPTEM à T3. Conclusion: les hautes doses d'héparine utilisées induisent une coagulopathie qui reste stable durant toute la durée de la CEC et qui persiste même après la neutralisation de l'anticoagulation. Les mesures EXTEM et HEPTEM sont donc valides en présence de hautes concentrations d'héparine et peuvent être réalisés pendant la CEC avant l'administration de protamine.
Resumo:
Les décisions de gestion des eaux souterraines doivent souvent être justiffées par des modèles quantitatifs d'aquifères qui tiennent compte de l'hétérogénéité des propriétés hydrauliques. Les aquifères fracturés sont parmi les plus hétérogènes et très difficiles à étudier. Dans ceux-ci, les fractures connectées, d'ouverture millimètrique, peuvent agir comme conducteurs hydrauliques et donc créer des écoulements très localisés. Le manque général d'informations sur la distribution spatiale des fractures limite la possibilité de construire des modèles quantitatifs de flux et de transport. Les données qui conditionnent les modèles sont généralement spatialement limitées, bruitées et elles ne représentent que des mesures indirectes de propriétés physiques. Ces limitations aux données peuvent être en partie surmontées en combinant différents types de données, telles que les données hydrologiques et de radar à pénétration de sol plus commun ément appelé géoradar. L'utilisation du géoradar en forage est un outil prometteur pour identiffer les fractures individuelles jusqu'à quelques dizaines de mètres dans la formation. Dans cette thèse, je développe des approches pour combiner le géoradar avec les données hydrologiques affn d'améliorer la caractérisation des aquifères fracturés. Des investigations hydrologiques intensives ont déjà été réalisées à partir de trois forage adjacents dans un aquifère cristallin en Bretagne (France). Néanmoins, la dimension des fractures et la géométrie 3-D des fractures conductives restaient mal connue. Affn d'améliorer la caractérisation du réseau de fractures je propose dans un premier temps un traitement géoradar avancé qui permet l'imagerie des fractures individuellement. Les résultats montrent que les fractures perméables précédemment identiffées dans les forages peuvent être caractérisées géométriquement loin du forage et que les fractures qui ne croisent pas les forages peuvent aussi être identiffées. Les résultats d'une deuxième étude montrent que les données géoradar peuvent suivre le transport d'un traceur salin. Ainsi, les fractures qui font partie du réseau conductif et connecté qui dominent l'écoulement et le transport local sont identiffées. C'est la première fois que le transport d'un traceur salin a pu être imagé sur une dizaines de mètres dans des fractures individuelles. Une troisième étude conffrme ces résultats par des expériences répétées et des essais de traçage supplémentaires dans différentes parties du réseau local. En outre, la combinaison des données de surveillance hydrologique et géoradar fournit la preuve que les variations temporelles d'amplitude des signaux géoradar peuvent nous informer sur les changements relatifs de concentrations de traceurs dans la formation. Par conséquent, les données géoradar et hydrologiques sont complémentaires. Je propose ensuite une approche d'inversion stochastique pour générer des modèles 3-D de fractures discrètes qui sont conditionnés à toutes les données disponibles en respectant leurs incertitudes. La génération stochastique des modèles conditionnés par géoradar est capable de reproduire les connexions hydrauliques observées et leur contribution aux écoulements. L'ensemble des modèles conditionnés fournit des estimations quantitatives des dimensions et de l'organisation spatiale des fractures hydrauliquement importantes. Cette thèse montre clairement que l'imagerie géoradar est un outil utile pour caractériser les fractures. La combinaison de mesures géoradar avec des données hydrologiques permet de conditionner avec succès le réseau de fractures et de fournir des modèles quantitatifs. Les approches présentées peuvent être appliquées dans d'autres types de formations rocheuses fracturées où la roche est électriquement résistive.
Resumo:
Le Gouvernement Capverdien avec l´assistance de la FAO à élaborer une stratégie de développement du secteur agricole au sens large, à long terme (horizon 2015) ainsi qu‟un Plan d‟action correspondant pour le moyen terme. Dans le cadre de l´initiative de la CEDEAO, Cap Vert c´est lance dans l‟élaboration de la présente sub-composante que s‟inscrit dans le cadre de l‟appui à la Formulation et mise en oeuvre d‟un Programme National d‟ Investissement Agricole (PNIA) pour la mise en oeuvre du PDDAA/NEPAD. Le document de stratégie de réduction de la pauvreté (DECRP) du pays indique la sécurité alimentaire et la garantie de la cohésion sociale en milieu rural comme les axes stratégiques centraux et dans le cadre des stratégies nationales de lutte contre la pauvreté et de sécurité alimentaire, le gouvernement du Cap-Vert a adoptée et mis en oeuvre un certain nombre de programmes pour lever les contraintes multiples auxquelles le pays est confronté, et relancer le secteur agricole. La vision stratégique de développement à court et moyen termes du Gouvernement est présentée dans le document intitulé „Grandes Options du Plan‟, basés sur les orientations suivantes: a. Promouvoir la bonne gouvernance comme facteur de développement, en réformant l‟Etat, en intensifiant la démocratie et en renforçant la citoyenneté, b. Promouvoir la capacité entrepreneur, la compétitivité et la croissance ; élargir la base productive, c. Développer le capital humain et orienter le système d‟enseignement/ formation vers les domaines prioritaires de développement, d. Promouvoir une politique globale de développement social, luttant contre la pauvreté et renforçant la cohésion et la solidarité, e. Développer des infrastructures de base et économiques et promouvoir l‟aménagement du territoire pour un développement équilibré. Étant un secteur important de l‟activité économique et sociale du Cap-Vert, l‟agriculture doit jouer les rôles fondamentaux ci-après:
Resumo:
Les fractures du condyle externe de l'enfant sont un traumatisme relativement fréquent qui survient le plus souvent chez l'enfant entre 5 et 15 ans. Elles sont classées en 3 grades : le grade 1 sans déplacement qui peuvent être traitées conservativement et les grades 2 (déplacées) et 3 (disloquées) qui nécessitent une prise en charge chirurgicale par réduction ouverte et embrochage. Le traitement traditionnel de ces fractures consistent en la mise en place de broches/vis métalliques qui doivent être retirées quelques semaines plus tard lors d'une seconde intervention. Depuis les années 90, des matériaux bio-résorbables à base d'acide polyglycoliques sont apparus en chirurgie orthopédique et traumatologique. En raison de la survenue de complications telles que réactions inflammatoires, formation de séromes ou ostéolyse, l'utilisation du matériel conventionnel a été préférée. Cependant, depuis quelques années, de nouveaux matériaux en acide polylactique sont apparus sur le marché. La période de résorption étant beaucoup plus lente, ces matériaux induisent des réactions beaucoup plus faibles, sans conséquences cliniques relevées jusqu'à présent. Chez l'adulte, de récentes études ont prouvés l'efficacité et l'absence d'effets secondaires liés à ces matériaux. Par contre, chez l'enfant, peu d'études à moyen terme ont été réalisées et l'impact sur l'os en croissance est peu connu, même si pour l'heure aucune conséquence clinique n'a été relevée. Dans le cadre de notre étude, nous avons comparé 2 groupes d'enfants traités pour des fractures du condyle externe du coude. Le premier groupe traité par du matériel conventionnel et le second par matériel résorbable. Les enfants ont tous étés suivis de manière très étroite durant la première année et la récupération clinique est similaire pour les 2 groupes. A 4 ans du traumatisme, les résultats fonctionnels sont identiques pour les 2 groupes et aucune complication liée au matériel résorbable n'a été mise en évidence. Par ailleurs, à 1 et 4 ans, les clichés radiologiques montrent l'absence de lésions liées au matériel résorbable. En conclusion, dans le cadre de notre travail nous avons pu montrer l'efficacité des matériaux résorbables dans la prise en charge des fractures du condyle externe du coude chez l'enfant. Ces matériaux permettent d'optimiser la prise en charge de ce type de fracture en prévenant un risque opératoire et anesthésique liés à une seconde intervention nécessaire au retrait du matériel d'ostéosynthèse conventionnel. Par ailleurs le coût lié à la prise en charge globale de ce type de fracture est moindre lors de l'utilisation de matériel résorbable.
Resumo:
[Table des matières] 1 Contexte de la saisine. - 2 Définitions et terminologie. - 3 Minéralogie et géologie du talc. - 4 Production et utilisation du talc. - 5 Echantillonnage et analyse des fibres. - 6 Exposition professionnelle à la poussière de talc. - 7 Réglementation. - 8 Effets sur la santé - données cliniques - autres effets que le cancer. - 9 Etudes épidémiologiques. - 10 Données toxicologiques. - 11 Conclusions. - 12 Recommandations. - 13 Bibliographie. - Annexe 1: Liste des organismes sollicités dans le cadre de l'expertise. - Annexe 2: Compte rendu des auditions. - Annexe 3 : Analyse critique des études épidémiologiques menées en industrie extractive. - Annexe 4 : Importations françaises du talc de 2007 à 2009
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.
Resumo:
Partant de deux études de cas, le projet de Frente Ribeirinha à Porto (Portugal) et celui d'Euroméditerranée à Marseille, ce projet de thèse a pour objectif l'étude des modalités de valorisation du tissu bâti (patrimonialisation) par les acteurs institutionnels dans les projets de régénération urbaine. Suivant l'hypothèse de l'entrée dans un nouveau régime de patrimonialité, l'analyse doit expliciter les stratégies à l'oeuvre ainsi que la manière dont les autorités publiques influent sur les représentations de l'espace construit. Abordant la question des échelles d'intervention des projets de régénération urbaine à partir des deux études de cas, mais également de littératures sur des projets anglo-saxons, la thèse cherche à voir, au prisme de la construction patrimoniale, comment ces projets sont directement connectés à l'économie internationale et au phénomène de globalisation et s'ils prennent en compte l'échelle du quotidien et de la domesticité. Il s'agit de montrer les limites d'une valorisation du tissu bâti dans un objectif de retombées économiques (ville consommable) au détriment des valeurs d'usage et de signifiants du quotidien. D'où l'hypothèse de l'importance d'une prise en compte des représentations de valeurs aux différentes échelles (dimensions socio-culturelles du projet de régénération) pour un équilibre qualitatif dans la fabrication du territoire et des projets sur le long terme. La volonté est sensiblement la compréhension des nouvelles constructions patrimoniales ainsi que des pratiques de conception et de mise en oeuvre du projet urbain. - Based on two case studies, the Frente Ribeirinha project in Porto (Portugal) and Euroméditerranée in Marseille, this research project aims at studying the modes of enhancement of the built fabric by institutional actors in urban regeneration projects. Posing the idea of a new heritage regime, this analysis attempts to explain the different strategies at work and how public authorities influence the built space's representations. Looking at the different scales of intervention of regeneration projects in our two case studies, as well as Anglo-Saxon literature on projects, it seeks at seeing, through heritage processes, how these projects are directly connected to the international economy and the phenomenon of globalization. Also, it aims at investigating whether policies take into account the scale of everyday life and domesticity. It attempts to show the limit of a built fabric's valuation with economic benefits objectives (consumable city) rather than taking into account values and meanings of everyday life. Hence, the thesis suggests taking into account representations and values at different scales (socio-cultural dimensions of the regeneration project) for a qualitative balance in urban planning and urban projects' manufacturing. The aim is to broaden the understanding on heritage construction, on urban design practices and on implementation of urban projects.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Apamè, Stratonice et Laodice(s) sont les différents protagonistes de cette thèse qui s'attache à saisir comment les souveraines séleucides participent au pouvoir. Principalement centré sur les identités politiques des reines que l'épigraphie grecque et akkadienne nous permet de re-construire, ce travail se développe chronologiquement. Il débute en 324, lors des noces Suse - qui virent Séleucos épouser la bactrienne Apamè, pour se terminer en 177 par la mention de la reine Laodice, la mère du roi Séleucos IV. Nous avons, par ce travail, démontré que les reines séleucides participent pleinement au pouvoir et ce dès le début de la constitution du royaume. Les souveraines mobilisent l'administration, écrivent aux cités, possèdent une autonomie financière grâce aux domaines qu'elles détiennent et disposent de réseaux d'influence personnels. Les identités qu'elles se construisent les lient notamment à la fécondité et leur permettent d'avoir un domaine d'action politique particulier inaccessible au roi. Elles sont en ce sens des partenaires politiques indispensables qui soutiennent à la fois la perpétuation du pouvoir royal et le maintien du territoire séleucide. Si par ce travail nous avons focalisé notre attention sur les basilissai, le cas de la première épouse d'Antiochos II nous a permis de mettre en évidence la polygamie des souverains, l'organisation « hiérarchique » des différentes épouses du roi ainsi que les stratégies développées par le pouvoir séleucide pour désigner celle dont sera issus le successeur. Enfin, le pouvoir séleucide, tel que nous l'avons décrit, ne permet plus de défendre les hypothèses de répudiation ou de régence des souveraines séleucides avancées pour les cas des épouses d'Antiochos II et d'Antiochos III.
Resumo:
La notion de développement durable structure le débat contemporain sur les finalités et les instruments des politiques publiques. La montée en puissance des préoccupations environnementales et de qualité des cadres de vie déplace les enjeux traditionnels de l'aménagement. Cette refonte s'inscrit dans une prise de conscience de la transversalité des problèmes de développement territorial. Une attention accrue est aussi portée aux acteurs et à leur participation invitant à repenser les articulations entre les élus, l'administration et la société civile. L'aménagement du territoire est à un tournant. La complexité accrue du champ décisionnel liée à la multiplicité des objectifs à prendre en compte, à la diversification des acteurs concernés, mais aussi à l'interférence des échelles de gouvernance bouscule les pratiques professionnelles. Cette note vise à montrer les principaux changements observés au cours des dernières années. Elle met l'accent sur la redéfinition des objectifs et des instruments d'aménagement et l'émergence des nouvelles pratiques de conduite de projets.
Resumo:
Rapport de synthèse : l .Objectif Evaluer l'effet qu'ont les consignes d'utilisation régulière d'un spray nasal à la nicotine sur leur véritable utilisation durant les 3 premières semaines d'un sevrage tabagique. Un objectif secondaire est d'évaluer l'effet des consignes d'utilisation régulière du spray durant les premières semaines de sevrage tabagique sur le taux de succès à 6 mois par rapport à un groupe pouvant utiliser le spray « ad libitum ». 2. Méthode II s'agit d'une étude ouverte, randomisée contrôlée, incluant 50 patients présentant une dépendance nicotinique forte, se trouvant en phase de préparation selon le modèle transthéorique du changement de Prochaska et Di Clemente, recrutés au sein de la consultation «stop tabac » de la Policlinique Médicale Universitaire de Lausanne. Dans le groupe «contrôle », les patients ont été instruits à utiliser le spray « ad libitum », soit dès qu'apparaissaient des envies irrésistibles de fumer, tandis que le groupe «intervention » a reçu pour consigne d'utiliser le spray au moins 1 fois par heure dès le lever, voire plus en cas d'envie de fumer. L'utilisation du spray nasal a été enregistrée par un dispositif électronique fixé sur le spray (MDILogTM) durant les 3 premières semaines d'utilisation. Durant le suivi, l'abstinence tabagique a été vérifiée par une mesure du taux de CO expiré par un appareil spécifique (Bedfont Smokerlyzer). L'abstinence tabagique a été considérée comme un succès si le taux de CO était s 10 ppm (particules par million). 3. Résultats Un patient a été perdu durant le suivi. Au moment de la randomisation, le groupe «intervention » comprenait plus de femmes, des patients ayant un nombre plus grand de précédentes tentatives d'arrêt du tabagisme, plus de co-morbidités psychiatriques, mais moins de co-morbidités somatiques que le groupe «contrôle ». Dans les 2 groupes, les participants ont utilisé le spray nasal plus de 8 fois par jour (minimum demandé dans le groupe intervention). L'utilisation moyenne du spray était de 13,6 doses/jour pour le groupe «intervention » et de 1 l,l doses/jour pour le groupe contrôle. Ajusté aux différences entre les 2 groupes, la différence entre les doses plus importantes utilisées dans le groupe «intervention »par rapport à celles du groupe « ad libitum »reste non significative durant la première (0.8 ; CI 95% -5.1 ; 6,7), la deuxième (4.0 ; CI 95% -1.9 ; 9.9) et la troisième semaine (3.0 ; CI 95% -2.5 ; 8.5). De même, le fait d'instruire le patient à utiliser chaque heure le spray nasal durant les premières semaines n'a pas eu d'impact sur le taux de succès à 6 mois (RR = 0.69 ; CI 95% 0.34 ; 1.39). 4. Conclusions Cette étude négative montre que les différences d'utilisation du spray nasal nicotinique sont plus dépendantes des caractéristiques individuelles du patient que des recommandations d'utilisation du thérapeute. Les patients présentant un syndrome de dépendance à la nicotine forte utilisent spontanément de manière importante le spray nasal nicotinique, indépendamment des recommandations données. Pour les patients présentant un syndrome de dépendance à la nicotine forte, les recommandations par le thérapeute d'utiliser le spray nasal dès l'apparition d'envies de fumer semblent être la manière de faire la plus adéquate.