1000 resultados para facteurs facilitants
Resumo:
L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.
Resumo:
Résumé -Caractéristiques architecturales des génomes bactériens et leurs applications Les bactéries possèdent généralement un seul chromosome circulaire. A chaque génération, ce chromosome est répliqué bidirectionnellement, par deux complexes enzymatiques de réplication se déplaçant en sens opposé depuis l'origine de réplication jusqu'au terminus, situé à l'opposé. Ce mode de réplication régit l'architecture du chromosome -l'orientation des gènes par rapport à la réplication, notamment - et est en grande partie à l'origine des pressions qui provoquent la variation de la composition en nucléotides du génome, hors des contraintes liées à la structure et à la fonction des protéines codées sur le chromosome. Le but de cette thèse est de contribuer à quantifier les effets de la réplication sur l'architecture chromosomique, en s'intéressant notamment aux gènes des ARN ribosomiques, cruciaux pour la bactérie. D'un autre côté, cette architecture est spécifique à l'espèce et donne ainsi une «identité génomique » aux gènes. Il est démontré ici qu'il est possible d'utiliser des marqueurs «naïfs » de cette identité pour détecter, notamment dans le génome du staphylocoque doré, des îlots de pathogénicité, qui concentrent un grand nombre de facteurs de virulence de la bactérie. Ces îlots de pathogénicité sont mobiles, et peuvent passer d'une bactérie à une autre, mais conservent durant un certain temps l'identité génomique de leur hôte précédent, ce qui permet de les reconnaître dans leur nouvel hôte. Ces méthodes simples, rapides et fiables seront de la plus haute importance lorsque le séquençage des génomes entiers sera rapide et disponible à très faible coût. Il sera alors possible d'analyser instantanément les déterminants pathogéniques et de résistance aux antibiotiques des agents pathogènes. Summary The bacterial genome is a highly organized structure, which may be referred to as the genome architecture, and is mainly directed by DNA replication. This thesis provides significant insights in the comprehension of the forces that shape bacterial chromosomes, different in each genome and contributing to confer them an identity. First, it shows the importance of the replication in directing the orientation of prokaryotic ribosomal RNAs, and how it shapes their nucleotide composition in a tax on-specific manner. Second, it highlights the pressure acting on the orientation of the genes in general, a majority of which are transcribed in the same direction as replication. Consequently, apparent infra-arm genome rearrangements, involving an exchange of the leading/lagging strands and shown to reduce growth rate, are very likely artifacts due to an incorrect contig assembly. Third, it shows that this genomic identity can be used to detect foreign parts in genomes, by establishing this identity for a given host and identifying the regions that deviate from it. This property is notably illustrated with Staphylococcus aureus: known pathogenicity islands and phages, and putative ancient pathogenicity islands concentrating many known pathogenicity-related genes are highlighted; the analysis also detects, incidentally, proteins responsible for the adhesion of S. aureus to the hosts' cells. In conclusion, the study of nucleotide composition of bacterial genomes provides the opportunity to better understand the genome-level pressures that shape DNA sequences, and to identify genes and regions potentially related to pathogenicity with fast, simple and reliable methods. This will be of crucial importance when whole-genome sequencing will be a rapid, inexpensive and routine tool.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
Résumé : Description : Ce travail de thèse évalue l'impact de la consommation importante d'alcool sur les facteurs de risque cardiovasculaire et l'estimation du risque cardiovasculaire à 10 ans (risque de développer une maladie coronarienne}, dans une population avec une consommation moyenne élevée d'alcool. La consommation modérée d'alcool a été liée à un risque plus faible de développer une maladie coronarienne. Cependant, les données concernant la consommation importante d'alcool et le risque de développer une maladie coronarienne sont conflictuelles. Il y a également peu d'études dans lesquelles les consommations importantes d'alcool ont pu être évaluées en raison du petit nombre de sujets présentant une telle consommation. Résultats: Nous avons utilisé les données de l'étude CoLaus, une étude populationnelle qui inclut des adultes, âgés de 35 à 75 ans, de la ville de Lausanne. Nous avons inclus 5'769 participants, sans maladie cardiovasculaire, pour lesquels la consommation d'alcool d'une semaine a été catégorisée en 0, 1 à 6, 7 à 13, 14 à 20, 21 à 27, 28 à 34 et >=35 verres/semaine et en non-consommateur (0 verre/semaine), consommateur modéré (1 à 13 verres/semaine), important (14 à 34 verres/semaine) et très important (>= 35). La tension artérielle et les lipides ont été mesurés et le risque de développer une maladie coronarienne à 10 ans a été calculé en utilisant le score de Framingham. 73% des participants consommaient de l'alcool; 16% étaient des consommateurs importants et 2% des consommateurs très importants. L'analyse rnultivariée a montré une augmentation du cholestérol HDL avec la consommation d'alcool (de 1.570.01 [moyenne +- erreur standard] chez les non consommateurs à 1.880.03 mmol/L chez les consommateurs très importants), des triglycérides (1.17+-1.01 à 1.32+-1.05 mmol/L) et des valeurs de tension artérielle systolique (127.4+-0.4 à 132.2+-.4 mm Hg) et diastolique (78.7+-0.3 à 81.7+-0.9 mm Hg, toutes les valeurs de p pour trend<0.001). Quant au risque de développer une maladie coronarienne à 10 ans, il a augmenté de 4.31%+-0.10 à 4.90%+-0.37 (p=0.03) avec la consommation d'alcool, en décrivant une courbe en J. En examinant le type de consommation, on a vu que la consommation de vin a plus d'effet sur l'augmentation des valeurs de cholestérol HDL, alors que la consommation de bière ou de spiritueux a plus d'effet sur l'augmentation des valeurs de triglycérides. Conclusions et perspectives: Nos résultats montrent qu'en ce qui concerne l'estimation du risque cardiovasculaire à 10 ans, l'effet protecteur de la consommation d'alcool disparaît pour des consommations très importantes, car l'effet bénéfique des valeurs augmentées de cholestérol HDL est contrecarré par l'augmentation des valeurs de tension artérielle. Quant aux différents types d'alcool, d'autres études sont nécessaires pour mieux évaluer leur effet spécifique sur les facteurs de risque cardiovasculaire.
Resumo:
Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.
Resumo:
Cet article analyse, à partir d'un modèle intégratif et dynamique, la souffrance au travail et les manifestations de celle-ci, chez les agents pénitentiaires en milieu carcéral dans un espace particulier qui est celui du « parloir pénitentiaire ». Si les questions des facteurs de risques, notamment du stress ou du burnout ont été abondamment traitées dans la littérature, selon des approches factorielles, rares sont les modèles multidimensionnels existants qui permettent de comprendre la complexité et la spécificité des processus en jeu en milieu carcéral. La méthode de recherche relève d'une analyse comparative des espaces professionnels. Soixante douze entretiens semi-directifs de recherche ont été conduits auprès des surveillants occupant chacun des espaces, dans trois établissements pénitentiaires français. À partir de différents indicateurs, le modèle permet de saisir les processus et étapes qui conduisent à la manifestation de souffrances au travail. Il offre à la fois des perspectives d'intervention et de prévention pour les cadres et psychologues chargés du soutien aux personnels.
Resumo:
AbstractType 2 diabetes (T2D) is a metabolic disease which affects more than 200 millions people worldwide. The progression of this affection reaches nowadays epidemic proportions, owing to the constant augmentation in the frequency of overweight, obesity and sedentary. The pathogenesis of T2D is characterized by reduction in the action of insulin on its target tissues - an alteration referred as insulin resistance - and pancreatic β-cell dysfunction. This latter deterioration is defined by impairment in insulin biosynthesis and secretion, and a loss of β-cell mass by apoptosis. Environmental factors related to T2D, such as chronic elevation in glucose and free fatty acids levels, inflammatory cytokines and pro-atherogenic oxidized low- density lipoproteins (LDL), contribute to the loss of pancreatic β-cell function.In this study, we have demonstrated that the transcription factor Inducible Cyclic AMP Early Repressor (ICER) participates to the progression of both β-cell dysfunction and insulin resistance. The expression of this factor is driven by an alternative promoter and ICER protein represents therefore a truncated product of the Cyclic AMP Response Element Modulator (CREM) family which lacks transactivation domain. Consequently, the transcription factor ICER acts as a passive repressor which reduces expression of genes controlled by the cyclic AMP and Cyclic AMP Response Element Binding protein (CREB) pathway.In insulin-secreting cells, the accumulation of reactive oxygen species caused by environmental factors and notably oxidized LDL - a process known as oxidative stress - induces the transcription factor ICER. This transcriptional repressor hampers the secretory capacity of β-cells by silencing key genes of the exocytotic machinery. In addition, the factor ICER reduces the expression of the scaffold protein Islet Brain 1 (IB 1 ), thereby favouring the activation of the c-Jun N-terminal Kinase (JNK) pathway. This triggering alters in turn insulin biosynthesis and survival capacities of pancreatic β-cells.In the adipose tissue of mice and human subjects suffering from obesity, the transcription factor ICER contributes to the alteration in insulin action. The loss in ICER protein in these tissues induces a constant activation of the CREB pathway and the subsequent expression of the Activating Transcription Factor 3 (ATF3). In turn, this repressor reduces the transcript levels of the glucose transporter GLUT4 and the insulin-sensitizer peptide adiponectin, thereby contributing to the diminution in insulin action.In conclusion, these data shed light on the important role of the transcriptional repressor ICER in the pathogenesis of T2D, which contributes to both alteration in β-cell function and aggravation of insulin resistance. Consequently, a better understanding of the molecular mechanisms responsible for the alterations in ICER levels is required and could lead to develop new therapeutic strategies for the treatment of T2D.RésuméLe diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. La progression de cette affection atteint aujourd'hui des proportions épidémiques imputables à l'augmentation rapide dans les fréquences du surpoids, de l'obésité et de la sédentarité. La pathogenèse du DT2 se caractérise par une diminution de l'action de l'insuline sur ses tissus cibles - un processus nommé insulino-résistance - ainsi qu'une dysfonction des cellules β pancréatiques sécrétrices d'insuline. Cette dernière détérioration se définit par une réduction de la capacité de synthèse et de sécrétion de l'insuline et mène finalement à une perte de la masse de cellules β par apoptose. Des facteurs environnementaux fréquemment associés au DT2, tels l'élévation chronique des taux plasmatiques de glucose et d'acides gras libres, les cytokines pro-inflammatoires et les lipoprotéines de faible densité (LDL) oxydées, contribuent à la perte de fonction des cellules β pancréatiques.Dans cette étude, nous avons démontré que le facteur de transcription « Inducible Cyclic AMP Early Repressor » (ICER) participe à la progression de la dysfonction des cellules β pancréatiques et au développement de Pinsulino-résistance. Son expression étant gouvernée par un promoteur alternatif, la protéine d'ICER représente un produit tronqué de la famille des «Cyclic AMP Response Element Modulator » (CREM), sans domaine de transactivation. Par conséquent, le facteur ICER agit comme un répresseur passif qui réduit l'expression des gènes contrôlés par la voie de l'AMP cyclique et des « Cyclic AMP Response Element Binding protein » (CREB).Dans les cellules sécrétrices d'insuline, l'accumulation de radicaux d'oxygène libres, soutenue par les facteurs environnementaux et notamment les LDL oxydées - un processus appelé stress oxydatif- induit de manière ininterrompue le facteur de transcription ICER. Ainsi activé, ce répresseur transcriptionnel altère la capacité sécrétoire des cellules β en bloquant l'expression de gènes clés de la machinerie d'exocytose. En outre, le facteur ICER favorise l'activation de la cascade de signalisation « c-Jun N- terminal Kinase » (JNK) en réduisant l'expression de la protéine « Islet Brain 1 » (IB1), altérant ainsi les fonctions de biosynthèse de l'insuline et de survie des cellules β pancréatiques.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur de transcription ICER contribue à l'altération de la réponse à l'insuline. La disparition de la protéine ICER dans ces tissus entraîne une activation persistante de la voie de signalisation des CREB et une induction du facteur de transcription « Activating Transcription Factor 3 » (ATF3). A son tour, le répresseur ATF3 inhibe l'expression du transporteur de glucose GLUT4 et du peptide adipocytaire insulino-sensibilisateur adiponectine, contribuant ainsi à la diminution de l'action de l'insuline en conditions d'obésité.En conclusion, à la lumière de ces résultats, le répresseur transcriptionnel ICER apparaît comme un facteur important dans la pathogenèse du DT2, en participant à la perte de fonction des cellules β pancréatiques et à l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes moléculaires responsables de l'altération des niveaux du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.Résumé didactiqueL'énergie nécessaire au bon fonctionnement de l'organisme est fournie par l'alimentation, notamment sous forme de sucres (glucides). Ceux-ci sont dégradés en glucose, lequel sera distribué aux différents organes par la circulation sanguine. Après un repas, le niveau de glucose sanguin, nommé glycémie, s'élève et favorise la sécrétion d'une hormone appelée insuline par les cellules β du pancréas. L'insuline permet, à son tour, aux organes, tels le foie, les muscles et le tissu adipeux de capter et d'utiliser le glucose ; la glycémie retrouve ainsi son niveau basai.Le diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. Le développement de cette affection est causée par deux processus pathologiques. D'une part, les quantités d'insuline secrétée par les cellules β pancréatiques, ainsi que la survie de ces cellules sont réduites, un phénomène connu sous le nom de dysfonction des cellules β. D'autre part, la sensibilité des tissus à l'insuline se trouve diminuée. Cette dernière altération, l'insulino-résistance, empêche le transport et l'utilisation du glucose par les tissus et mène à une accumulation de ce sucre dans le sang. Cette stagnation de glucose dans le compartiment sanguin est appelée hyperglycémie et favorise l'apparition des complications secondaires du diabète, telles que les maladies cardiovasculaires, l'insuffisance rénale, la cécité et la perte de sensibilité des extrémités.Dans cette étude, nous avons démontré que le facteur ICER qui contrôle spécifiquement l'expression de certains gènes, contribue non seulement à la dysfonction des cellules β, mais aussi au développement de l'insulino-résistance. En effet, dans les cellules β pancréatiques en conditions diabétiques, l'activation du facteur ICER altère la capacité de synthèse et de sécrétion d'insuline et réduit la survie ces cellules.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur ICER contribue à la perte de sensibilité à l'insuline. La disparition d'ICER altère l'expression de la protéine qui capte le glucose, le transoprteur GLUT4, et l'hormone adipocytaire favorisant la sensibilité à l'insuline, nommée adiponectine. Ainsi, la perte d'ICER participe à la réduction de la captation de glucose par le tissue adipeux et au développement de l'insulino-résistance au cours de l'obésité.En conclusion, à la lumière de ces résultats, le facteur ICER apparaît comme un contributeur important à la progression du DT2, en soutenant la dysfonction des cellules β pancréatiques et l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes responsables de la dérégulation du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
La survie actuelle après correction chirurgicale de la Tétralogie de Fallot (TDF) est de 97% à 12 ans. Les principaux risques à long terme sont une régurgitation pulmonaire ou une sténose récidivante de la sortie droite du coeur, une tachycardie ventriculaire pouvant entrainer une mort subite. Le but de cette étude rétrospective est de comparer la correction chirurgicale de la TDF avec patch pulmonaire versus un conduit valvé xénogreffe. Le collectif se compose de 127 patients entre 2 mois et 16 ans, opérés pour une TDF entre l'année 2000 et 2010. La correction chirurgicale était soit avec un patch, soit avec un conduit valvé à la sortie droite. Cette étude montre d'une part qu'il n'y a pas de différence de survie à un mois entre les deux méthodes opératoires. De plus, elle montre que, lors de la pose d'un patch, il y a plus de sept fois plus d'insuffisances valvulaires modérées à sévères après un mois que lors de la pose d'un conduit valvé. D'autre part, elle démontre que la différence de gradient résiduel à la sortie droite entre la correction avec patch ou conduit n'est pas significative et que la valeur du gradient résiduel à la sortie droite en postopératoire n'est pas représentative du gradient résiduel à un mois. De plus, cette étude prouve que les coronaires aberrantes ainsi qu'un shunt palliatif de Blalock-Taussig sont des facteurs de risque indépendants pour une correction avec un conduit valvé.
Resumo:
UNIVERSITE DE LAUSANNE - FACULTE DE BIOLOGIE ET DE MEDECINE Médecine Ophtalmologie Etude clinique et angiographique lors de la Syphilis Oculaire THESE préparée sous la direction du Docteur Yan Guex-Crosier et présentée à la Faculté de biologie et de médecine de l'Université de Lausanne pour l'obtention du grade de DOCTEUR EN MEDECINE par Konstantinos BALASKAS Médecin diplômé de la Grèce Originaire d'Athènes (Grèce) ι Lausanne 2012 Une recrudescence des cas de syphilis a été observée ces dernières années. Son diagnostic clinique reste particulièrement difficile en l'absence de signe pathognomonique. Sur le plan oculaire elle présente un vaste spectre de manifestations diverses lui ayant valu le surnom de « la grande imitatrice ». Sa rareté et son hétérogénéité ont empêché l'identification et la vérification statistique des facteurs liés à un pronostic défavorable. Le but de cette étude a été d'explorer les paramètres cliniques et para-cliniques déterminant la sévérité et influençant l'évolution de la maladie. Ce travail comprend deux volets, la première partie intitulée : «Analysis of significant factors influencing visual acuity in ocular syphilis» publiée dans le British Journal of Ophthalmology a démontré qu'une mauvaise acuité visuelle initiale est associée de façon statistiquement significative à la sévérité de l'amputation du champ visuel, à la présence d'un oedème maculaire ou d'une neuropathie optique. Une amélioration de l'acuité visuelle grâce au traitement antibiotique est associée à la présence d'une vasculite (visible à l'angiographie fluorescéinique), d'une neurosyphilis ou d'une uvéite antérieure. Une récidive inflammatoire est fortement associée à une durée prolongée des symptômes avant l'introduction du traitement et à la présence de douleur comme signe d'appel. L'utilité clinique principale de ces résultats statistiques permet de conclure que les formes inflammatoires sévères associées à la triade (vasculite, neurosyphilis et uvéite antérieure) constituent un phénomène réversible pour autant qu'un traitement précoce et adéquat ait été introduit. Le deuxième volet de l'étude analyse les manifestations angiographiques (à la fluorescéine (AF) et au vert d'indocyanine (AICG)) de la syphilis oculaire et a été publié dans le journal du Graefes Archives of Clinical and Experimental Ophthalmology sous le titre suivant : "Fluorescein and indocyanine-green angiography in ocular syphilis: an exploratory study". Des associations faibles ont été démontrées entre la présence d'une vasculite lors de AF et d'une uvéite antérieure, d'une hyalite et d'un âge plus jeune. Une association forte est identifiée entre la présence des «dark dots» sur l'AICG et d'une uvéite antérieure ainsi qu'entre la présence des «hot spots» sur l'AICG et d'une durée prolongée des symptômes. Les conclusions d'importance clinique significative lors de la syphilis oculaire sont que les « dark dots » ou hypofluorescences en AICG évoquent la présence d'une atteinte inflammatoire oculaire sévère et que les « hot spots » ou hyperfluorescences en AICG sont significatifs d'une atteinte chronique. Cette étude contribue à modifier les attitudes cliniques lors de la syphilis oculaire surtout en ce qui concerne l'urgence à traiter afin d'assurer une récupération optimale. Elle aide aussi à redéfinir le rôle de l'angiographie dans la syphilis oculaire pour déterminer la sévérité, la durée de la maladie ainsi que le pronostic visuel.
Resumo:
L'agitation postopératoire chez les patients adultes dans les premières heures après le réveil¦est un domaine peu étudié. Nous avons effectué des recherches pour trouver des études¦concernant l'agitation postopératoire sur Pubmed pour les 10 dernières années. Les termes de¦recherche étaient agitation, emergence delirium, facteurs de risques (anglais : risk factors),¦agitation treatment, Riker scale. Ceci n'a permis de trouver que 2 études à propos de ce sujet.¦Pourtant, elle concerne environ 5% (1) (2) des patients adultes opérés, ce qui n'est pas¦négligeable.¦En effet, elle peut avoir de sérieuses conséquences en terme de lésions des patients¦(arrachement de cathéter, de tube d'intubation) ou du personnel soignant, ainsi qu'en terme de¦coûts occasionnés par les différentes complications.¦Selon l'étude de Lepousé (1) et l'étude de Radtke (2), certains facteurs seraient déterminants¦dans la survenue de l'agitation postopératoire, dont quelques-uns sont évitables.¦Dans l'étude observationnelle prospective de Radtke (2), il a déjà été démontré que l'âge était¦en lien avec l'agitation postopératoire. Les tranches d'âge les plus à risque sont : les moins de¦40 ans (18-39 ans) (OR=2.1, CI=1.1-3.8, p=0.02) et les plus de 64 ans (OR=2.1, CI=1.1-3.4,¦p=0.02). Les études de Lepousé (1) et de Radtke (2) ont montré que la prémédication par¦benzodiazépines pourrait aussi être un facteur de risque (Lepousé (1): CI=1.1-3.3, p=0.02)¦(Radtke (2): OR=2.4, CI=1.0-5.6, p≤0.05). L'intensité de la douleur est également liée à la¦survenue d'une agitation postopératoire (OR=1.8, CI=1.0-3.0, p<0.04) (2). D'autres facteurs¦comme certains médicaments utilisés lors de l'anesthésie (l'étomidate) (2), le type de¦chirurgie [abdominale (1) (2), musculosquelettique (2), de la tête et du cou(2), de la¦poitrine(1)] seraient en lien avec la survenue d'une agitation postopératoire.¦4¦Il restait toutefois beaucoup de facteurs dont la relation avec l'agitation postopératoire n'avait¦pas été évaluée ou dont l'étude n'a pas eu de résultat significatif [par exemple, les¦benzodiazépines à long terme (1), ou l'anesthésie locorégionale(2)].¦Le but de cette étude était premièrement de déterminer si la fréquence de l'agitation¦postopératoire dans la population prise en compte ici est comparable à celle observée dans les¦études de Radtke et de Lepousé.¦Ensuite il s'agissait d'identifier, lors d'agitation postopératoire chez des patients adultes,¦parmi certains facteurs possibles, ceux pouvant être en lien avec l'agitation postopératoire, et¦s'ils étaient similaires à ceux retrouvés dans les études déjà publiées.¦Les comorbidités sont un de ces facteurs. La dose de benzodiazépines dans les 24 heures¦précédent l'intervention, ainsi que les benzodiazépines en médication chronique, par un effet¦paradoxal, pourraient être en lien avec un état d'agitation. Dans le même ordre d'idée, nous¦avons comparé le type d'anesthésie utilisé, locorégionale versus générale ou combinée, avec¦la survenue de cet état. Nous nous sommes aussi penchés sur la dose intraopératoire totale¦d'opioïdes et l'administration intraopératoire d'atropine, médicaments largement utilisés lors¦des interventions, et qui seraient des facteurs modifiables si une relation avec l'agitation était¦démontrée. Enfin, l'hypotension intraopératoire provoquant une hypoperfusion cérébrale¦relative pourrait être liée à la survenue d'une agitation postopératoire.¦Nous avons également observé d'autres variables, comme l'intensité de la douleur, déjà¦démontrée comme étant en rapport avec l'agitation postopératoire, et l'hypoxie¦intraopératoire, qui pourrait favoriser une hypoxie cérébrale, et par là une agitation.¦Enfin, nous avons cherché s'il existe un lien entre la survenue d'une agitation postopératoire¦et d'un état confusionnel postopératoire, c'est-à-dire se développant dans la semaine suivant¦l'opération, une question qui n'avait pas encore été étudiée.
Resumo:
Objectif Le présent travail a consisté à identifier et comparer, au moyen d'un questionnaire auto-administré, les conditions ergonomiques, les nuisances environnementales et les facteurs de stress rencontrés par le personnel soignant (n = 35) et le personnel pénitentiaire (n = 240) travaillant dans les mêmes prisons. Quatre ans ont séparé la remise du questionnaire auprès des surveillants et des soignants, ce qui limite la portée des résultats. Malgré cela, la comparaison des données fournies montre des tendances intéressantes. Résultats Sur un plan ergonomique, les soignants rencontrent une plus faible pénibilité que les surveillants. Sur un plan environnemental, les soignants sont gênés par un nombre moins important de nuisances que les surveillants, ces derniers étant exposés à des conditions très diverses de travail (divisions de haute sécurité, ateliers de production, domaines agricoles). Par contre, concernant les facteurs de stress, les soignants éprouvent des tensions dans des proportions presque identiques aux surveillants, suite aux interventions d'urgences, à la surcharge de travail, aux relations avec les détenus et à la mauvaise ambiance au travail. En outre, les soignants et surveillants paraissent souffrir différemment d'éléments d'organisation tels que le sentiment de travailler sous pression, le manque d'écoute et le manque de considération. Enfin les soignants signalent un risque de violence plus élevé ainsi qu'un manque de reconnaissance plus important que les surveillants. Conclusion Les surveillants doivent continuer à faire l'objet d'un suivi attentif des services de santé au travail. En ce qui concerne les soignants, l'accent doit être mis sur l'amélioration de leur organisation interne de travail en approfondissant, entre autres, la question du manque de reconnaissance, le sentiment de travail sous pression, ainsi qu'en poursuivant les efforts sur la formation à la lutte contre la violence. [Auteurs]
Resumo:
Ecological speciation and its hallmark, adaptive radiation is a process from which most of the current biodiversity derives. As ecological opportunity allows species to colonise unoccupied niches, natural selection drives adaptive phenotypical change. In this thesis, I begin by describing how this evolutionary process acted on the evolution of the clownfishes. During its infancy, this iconic group of coral reef fishes developed a mutualism with sea anemone species. I show how this event triggered the evolutionary radiation of the group, generating species that now inhabit diverse habitats of the coral reefs. Following the appearance of the mutualism, the diversification of the clownfish was catalysed by hybridisation events which shuffled genes, allowing hybrids to reach new fitness optima. While the clownfishes appeared in the region of the coral triangle, a lineage colonised the eastern shores of Africa. I reconstructed the geographic history of the group and showed that this event lead to the rapid appearance of new species, replicating the evolutionary patterns of the original radiation. To better grasp the mechanisms of ecological speciation, I conducted analyses at the population level and identified similar evolutionary patterns than found at the clade level. I discuss how such result suggests a continuity bridging micro- and macroevolution, which so far only been theorised. In parallel to this study case, I question whether biotic and abiotic interactions can promote or restrain ecological speciation. Indeed, I show how the ecological setting of species can drastically impact on their diversification dynamics. Moreover, tradeoffs can occur between specialisation made on different ecological axes allowing species cohabitation. Overall, I show in this work that regardless of the few simple rules that explain the mechanism of ecological speciation, the unavoidable interactions with the ever changing ecological context lead diversification events to give always a different outcome. It is thus primordial to account for the ecological settings of species when discussing their evolutionary dynamics. LA SPÉCIATION ÉCOLOGIQUE RACONTÉE AU TRAVERS DE L'ÉTUDE DE L'ÉVOLUTION DES POISSONS-CLOWNS ET DE QUELQUES AUTRES Le phénomène de spéciation écologique est à l'origine de la majeure partie de la biodiversité que l'on rencontre aujourd'hui. Au fil des opportunités qu'elles rencontrent, les espèces colonisent l'espace écologique laissant la sélection naturelle forger leur phénotype moyen. Malgré l'omniprésence de ce phénomène dans la nature, beaucoup de questions qui lui sont relatives restent à élucider. C'est afin de mieux comprendre ce mécanisme que j'étudie les poissons-clowns, célèbres habitants des récifs coralliens. Dans ce travail, je démontré que le développement du comportement mutualiste liant les poissons-clowns aux anémones de mer fut l'événement qui déclencha leur diversification. Suite à ce premier événement, j'illustre comment l'hybridation entre lignées primordiales a remodelé la diversité génétique du groupe et catalysé leur radiation évolutive. Je poursuis en reconstruisant l'expansion géographique des poissons-clowns au cours du temps depuis le triangle de corail, leur lieu d'origine, jusqu'aux côtes d'Afrique de l'Ouest. Afin d'affiner ces analyses générales sur le groupe, je continue en étudiant plus finement des populations d'une seule espèce de poisson-clown. Cette fine résolution me permet de comprendre plus précisément quels sont les facteurs écologiques qui permettent aux poissons-clowns de se différencier. Les résultats de ces analyses suggèrent qu'il est important de comprendre les liens entre le contexte écologique et la diversification des espèces. J'étudie cette question dans la seconde partie de ce travail en montrant que l'hétérogénéité du paysage ou les liens entretenus avec un partenaire mutualiste influencent fortement la dynamique évolutive des espèces. Finalement, j'illustre les compromis que chaque espèce réalise en se spécialisant ou non dans ses interactions avec l'environnent. Plus généralement, je souligne dans ce travail l'influence du contexte écologique sur le résultat de la spéciation écologique. Ce sont ces interactions entre les organismes et leur environnent qui sont à l'origine de l'incroyable diversité de la vie. Il est donc primordial de les prendre en compte lors de l'étude de l'évolution des espèces.