904 resultados para Contraintes de crédit
Resumo:
This paper contributes to the literature by applying the Granger causality approach and endogenous breakpoint test to offer an operational definition of contagion to examine European Economic and Monetary Union (EMU) countries public debt behaviour. A database of yields on 10-year government bonds issued by 11 EMU countries covering fourteen years of monetary union is used. The main results suggest that the 41 new causality patterns, which appeared for the first time in the crisis period, and the intensification of causality recorded in 70% of the cases, provide clear evidence of contagion in the aftermath of the current euro debt crisis.
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de facili- ter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont repré- sentés par des schémas décrivant les relations entre les événements et les entités d'inté- rêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes, sont par exemple: la représentation de réseaux criminels, de trafics de marchan- dises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investiga- tion, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de déci- sions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent per- cutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'ex- ploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des prati- ciens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une forma- lisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessité de consolider les méthodes pratiquées.
Resumo:
La problemàtica jurídica-social que ha sorgit aquests darrers anys amb les permutes financeres i les participacions preferents ha fet plantejar si s'ha produït un error en el consentiment contractual amb aquest tipus de productes financers. A partir del contingut del Codi Civil espanyol i la doctrina, s'han analitzat els elements essencials del contracte, així com, la legislació aplicable als instruments financers. Amb l’ ajuda de la jurisprudència s'ha pogut comprovar que en la majoria de casos portats als tribunals en relació a aquests contractes, en els quals, es demana l'anul·labilitat contractual, el fonament principal es basa en la vulneració de les entitats de crèdit dels seus deures legals . En el present treball queda palesa la importància d'enllaçar l'element contractual del consentiment amb l'obligació que tenen les entitats de crèdit d'informar els seus clients. Així, la incorrecta formació sobre la realitat contractual que els clients manifesten amb el consentiment, passa sense cap dubte per la necessitat d'obtenir tota la informació rellevant del contracte. L’obligació d’informació està estretament lligada al deure de classificar als clients, totes dues són un compromís legal que tenen les entitats en la seva funció de lleialtat empresària. Les entitats financeres deuen per tant classificar els seus clients i proporcionals la informació, amb més rigor si cap , en el cas de clients minoristes. Per tot això, veiem que en aquells casos de clients minoristes en els quals no s'ha pogut demostrar per part de les entitats de crèdit que es va proporcionar tota la informació necessària, s'ha produït un error en el consentiment. Els clients no coneixien l’autèntic abast de la vinculació ni els costos als quals s'havia obligat , no hi ha dubte que en molts dels casos d'haver conegut la realitat, no haguessin contractat.
Resumo:
Ce travail a pour objectif d'étudier l'évolution du métier de médecin de premier recours à la lumière du réel de son activité. Afin de pallier les lacunes de la littérature, nous proposons d'investiguer les perceptions et les pratiques rapportées de médecins de premier recours, considérant leur activité comme située dans un contexte spécifique. Un cadre théorique multiréférencé, intégrant les apports de Bischoff (2012), de la théorie de l'activité (Engeström et al., 1999), de l'ergonomie (Daniellou, 1996 ; Falzon, 2004a; Leplat, 1997) et de certains courants de la psychologie du travail (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) permet de tenir compte de la complexité du travail des médecins de premier recours. Une méthodologie mixte, alliant une approche qualitative par entretiens semi-structurés (n=20) à une approche quantitative par questionnaire (n=553), a été développée. Les résultats de l'analyse thématique des entretiens mettent en évidence trois thèmes majeurs : l'Evolution du métier (Thème 1), caractérisé par les changements perçus, les demandes des populations qui consultent et les paradoxes et vécus des médecins ; les Ajustements et supports (Thème 2) mis en place par les médecins pour faire face aux changements et aux difficultés de leur métier ; les Perceptions et les attentes par rapport au métier (Thème 3), mettant en avant des écarts perçus entre la formation et la réalité du métier. La partie quantitative permet de répondre aux questionnements générés à partir des résultats qualitatifs et de généraliser certains d'entre eux. Suite à l'intégration des deux volets de l'étude, nous présentons une nouvelle modélisation du métier de médecin de premier recours, soulignant son aspect dynamique et évolutif. Cette modélisation rend possible l'analyse de l'activité réelle des médecins, en tenant compte des contraintes organisationnelles, des paradoxes inhérents au métier et du vécu des médecins de premier recours. L'analyse des limites de cette étude ouvre à de nouvelles perspectives de recherche. A l'issue de ce travail, nous proposons quelques usages pragmatiques, qui pourront être utiles aux médecins de premier recours et aux médecins en formation, non seulement dans la réalisation de leur activité, mais également pour le maintien de leur équilibre et leur épanouissement au sein du métier. - This study aims to investigate the evolution of primary care physicians' work, in the light of the reality of their activity. In order to overcome the limitations of the literature, we propose to focus on primary care physicians' reported perceptions and practices, considering their activity as situated in a specific context. The theoretical framework refers to Bischoff (2012), Activity theory (Engeström et al., 1999), ergonomy (Daniellou, 1996; Falzon, 2004a; Leplat, 1997) and work psychology (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) and enables to take into account the complexity of primary care physicians' work. This mixed methods study proposes semi-structured interviews (n=20) and a questionnaire (n=553). Thematic analysis of interviews points out three major themes : Evolution of work (Theme 1) is characterised by perceived changes, patients' expectations and paradoxes ; Adjustments and supports (Theme 2), that help to face changes and difficulties of work ; Perceptions related to work, including differences between work reality as represented during medical education/training and actual work reality. Quantitative part of the study enables to answer questions generated from qualitative results and to generalise some of them. Integration of qualitative and quantitative results leads to a new modelling of primary care physicians ' work, that is dynamic and evolutionary. This modelling is useful to analyse the primary care physicians' activity, including organisational constraints, paradoxes of work and how primary care physicians are experiencing them. Despite its limitations, this study offers new research perspectives. To conclude, we state pragmatic recommendations that could be helpful to primary care physicians in private practice and junior doctors, in order to realise their activity, to maintain their balance and to sustain their professional fulfilment.
Resumo:
RÉSUMÉ Le Grand tétras est un galliforme de montagne apparenté au faisan et au tétras lyre. Il est distribué de manière continue à travers la toundra et les montagnes de moyenne altitude en Europe de l'ouest. Toutefois, les populations d'Europe de l'ouest ont subi un déclin constant au cours des derniers siècles. Les causes de ce déclin sont probablement liées à l'activité humaine, telle .que l'élevage ou le tourisme, qui ont engendré une modification et une fragmentation de l'habitat de l'espèce. Malheureusement, les populations soumises à de forts déclins démographiques peuvent subir des effets génétiques (augmentation de la consanguinité et perte de diversité génétique) pouvant diminuer leur potentiel de reproduction et conduire irrémédiablement à l'extinction. Cette thèse présente les analyses conduites dans le but d'estimer l'impact du déclin démographique des populations de Grand tétras sur l'étendue et la distribution de leur variabilité génétique dans le Jura et dans les Pyrénées. Du fait de la législation locale protégeant les tétraonidés en général, mais également en raison de la biologie très cryptique du Grand tétras, l'ensemble des analyses de cette étude a été réalisé à partir de matériel génétique extrait des fientes (ou échantillonnage génétique non invasif). Dans la première partie de l'étude, je détaille les protocoles d'extraction. d'ADN et d'amplification par PCR modifiés à partir des protocoles classiques utilisant des échantillons conventionnels, riches en ADN. L'utilisation d'ADN fécal impose des contraintes dues à la mauvaise qualité et à la faible quantité du matériel génétique à disposition dans les fientes. Ces contraintes ont pu être partiellement contournées en réalisant des répétitions multiples du génotypage afin d'obtenir un degré de fiabilité suffisante. J'ai également analysé les causes de la dégradation de l'ADN dans les excréments. Parmi les causes les plus communes, telles que l'activité bactérienne, l'hydrolyse spontanée et la dégradation enzymatique par les DNases libres, c'est ce dernier facteur qui apparaît comme étant la cause majeure et la plus rapide responsable de la dégradation de la qualité des échantillons. La rapidité de l'action enzymatique suggère que les plans d'échantillonnages de excréments sur le terrain pourraient être optimisés en les réalisant dans des conditions climatiques froides et sèches, favorisant ainsi l'inhibition des DNases. La seconde partie de la thèse est une étude par simulation visant à déterminer la capacité du logiciel Structure à identifier les structures génétiques complexes et hiérarchiques fréquemment rencontrées dans les populations naturelles, et ce en utilisant différents types de marqueurs génétiques. Les troisième et quatrième parties de cette thèse décrivent le statut génétique des populations résiduelles du Jura et des Pyrénées à partir de l'analyse de 11 loci microsatellites. Nous n'avons pas pu mettre en évidence dans les deux populations des effets liés à la consanguinité ou à la réduction de la diversité génétique. De plus, la différenciation génétique entre les patches d'habitats favorables reste modérée et corrélée à la distance géographique, ce qui suggère que la dispersion d'individus entre les patches a été importante au moins pendant ces dernières générations. La comparaison des paramètres de la diversité génétique avec ceux d'autres populations de Grand tétras, ou d'autres espèces proches, indique que la population du Jura a retenu une proportion importante de sa diversité originelle. Ces résultats suggèrent que le déclin récent des populations a jusqu'ici eu un impact modéré sur les facteurs génétiques et que ces populations semblent avoir conservé le potentiel génétique nécessaire à leur survie à long terme. Finalement, en cinquième partie, l'analyse de l'apparentement entre les mâles qui participent à la parade sur les places de chant (leks) indique que ces derniers sont distribués en agrégats de manière non aléatoire, préférentiellement entre individus apparentés. De plus, la corrélation entre les distances génétique et géographique entre les leks est en accord avec les motifs d'isolement par la distance mis en évidence à d'autres niveaux hiérarchiques (entre patches d'habitat et populations), ainsi qu'avec les études menées sur d'autres espèces ayant choisi ce même système de reproduction. En conclusion, cette première étude basée uniquement sur de l'ADN nucléaire aviaire extrait à partir de fèces a fourni des informations nouvelles qui n'auraient pas pu être obtenues par une méthode d'observation sur le terrain ou d'échantillonnage génétique classique. Aucun oiseau n'a été dérangé ou capturé, et les résultats sont comparables à d'autres études concernant des espèces proches. Néanmoins, la taille de ces populations approche des niveaux au-dessous desquels la survie à long terme est fortement incertaine. La persistance de la diversité génétique pour les prochaines générations reste en conséquence liée à la survie des adultes et à une reprise du succès de la reproduction. ABSTRACT Capercaillie (Tetrao urogallus) is a large grouse that is continuously distributed across the tundra and the mid-high mountains of Western Europe. However, the populations in Western Europe have been showing a constant decline during the last decades. The causes for this decline are possibly related to human activities, such as cattle breeding and tourism that have both led to habitat modification and fragmentation. Unfortunately, populations that have undergone drastic demographic bottlenecks often go through genetic processes of inbreeding and loss of diversity that decrease their fitness and eventually lead to extinction. This thesis presents the investigations conducted to estimate the impact of the demographic decline of capercaillie populations on the extent and distribution of their genetic variability in the Jura and in the Pyrenees mountains. Because grouse are protected by wildlife legislation, and also because of the cryptic behaviour of capercaillie, all DNA material used in this study was extracted from faeces (non-invasive genetic sampling). In the first part of my thesis, I detail the protocols of DNA extraction and PCR amplification adapted from classical methods using conventional DNA-rich samples. The use of faecal DNA imposes specific constraints due to the low quantity and the highly degraded genetic material available. These constraints are partially overcome by performing multiple genotyping repetitions to obtain sufficient reliability. I also investigate the causes of DNA degradation in faeces. Among the main degraders, namely bacterial activity, spontaneous hydrolysis, and free-¬DNase activities, the latter was pointed out as the most important according to our experiments. These enzymes degrade DNA very rapidly, and, as a consequence, faeces sampling schemes must be planned preferably in cold and dry weather conditions, allowing for enzyme activity inhibition. The second part of the thesis is a simulation study aiming to assess the capacity of the software Structure to detect population structure in hierarchical models relevant to situations encountered in wild populations, using several genetic markers. The methods implemented in Structure appear efficient in detecting the highest hierarchical structure. The third and fourth parts of the thesis describe the population genetics status of the remaining Jura and Pyrenees populations using 11 microsatellite loci. In either of these populations, no inbreeding nor reduced genetic diversity was detected. Furthermore, the genetic differentiation between patches defined by habitat suitability remains moderate and correlated with geographical distance, suggesting that significant dispersion between patches was at work at least until the last generations. The comparison of diversity indicators with other species or other populations of capercaillie indicate that population in the Jura has retained a large part of its original genetic diversity. These results suggest that the recent decline has had so forth a moderate impact on genetic factors and that these populations might have retained the potential for long term survival, if the decline is stopped. Finally, in the fifth part, the analysis of relatedness between males participating in the reproduction parade, or lek, indicate that capercaillie males, like has been shown for some other grouse species, gather on leks among individuals that are more related than the average of the population. This pattern appears to be due to both population structure and kin-association. As a conclusion, this first study relying exclusively on nuclear DNA extracted from faeces has provided novel information that was not available through field observation or classical genetic sampling. No bird has been captured or disturbed, and the results are consistent with other studies of closely related species. However, the size of these populations is approaching thresholds below which long-term survival is unlikely. The persistence of genetic diversity for the forthcoming generations remains therefore bond to adult survival and to the increase of reproduction success.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.
Resumo:
L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
We examined root morphological and functional differences caused by restrictions imposed to vertical growth in the root system of holm oak (Quercus ilex L.) seedlings to assess the consequences of using nursery containers in the development of a confined root system for this species. Thus, root morphological, topological and functional parameters, including hydraulic conductance per leaf unit surface area (K $_{\rm RL})$, were investigated in one-year seedlings cultivated in three PVC tubes differing in length (20, 60 and 100 cm). Longer tubes showed greater projected root area, root volume, total and fine root lengths, specific root length (SRL) and K$_{\rm RL}$ values than did shorter tubes. On the other hand, the length of coarse roots (diameter > 4.5 mm) and the average root diameter were greater in shorter tubes. The strong positive correlation found between K$_{\rm RL}$ and SRL (r=+0.69; P<0.001) indicated that root thickness was inversely related to water flow through the root system. We concluded that root systems developed in longer tubes are more efficient for plant water uptake and, therefore, changes in root pattern produced in standard forest containers (i.e. about 20 cm length) may in fact prevent a proper establishment of the holm oak in the field, particularly in xeric environments.
Resumo:
Introduction: The importance of health promotion and prevention and the potential of general practitioners (GPs) to conduct individual prevention procedures have been demonstrated in several studies. Clinical recommendations for screening and prevention activities, an important condition for success, are published regularly, but their implementation into daily practice does not necessarily follow. Information is lacking about the actual conditions of how prevention is carried out on a daily basis by Swiss GPs, about their perceptions and needs, their attitudes and the present barriers they face. Such information is essential for the development of new tools and programs targeting better implementation of clinical recommendations for prevention in primary care in Switzerland. Objectives: The objectives of the study were to analyze how Swiss GPs perceive their role in prevention by obtaining information regarding the following issues: What do disease prevention and health promotion mean to them? What are the current incentives and barriers they face? What are their ideas and suggestions to deal with these barriers? What are their needs and expectations regarding prevention guidelines and tools? Methods: We conducted a qualitative research project using focus groups to examine the questions mentioned above. A total of 13 focus groups took place including GPs from eight cantons: five groups in German- speaking Switzerland and eight in French- speaking Switzerland. Each group was composed of 4-11 GPs, making in total 102 participants, who were paid expenses to cover their participation. The sessions were audio-recorded and transcribed verbatim. Data analysis: Content analysis of the transcriptions began by classifying the data according to a typology, the first level of which was developed in line with the structure of the interview guide. This typology was extended by successively regrouping similar statements. Synopsis and interpretation was then performed on each category thus obtained. This research report is based on the results from the French-speaking cantons. Results: Physicians perceive a change in their role as a consequence of changes in society and the health system. They emphasize the importance of a personalized and long lasting relationship between the family doctor and his/her patient; a privileged position allowing them to perform individualized prevention activities, considered to be more effective, as they are appropriate to the specific situation and needs of the patient. They point out their need for training and for better information concerning prevention and health promotion interventions, and stress difficulties arising from the lack of a clear political signal conferring them with a mandate for prevention. -- INTRODUCTION L'importance de la prévention et de la promotion de la santé et le potentiel des médecins de famillea à mettre en oeuvre des mesures individuelles de prévention, de dépistage et de conseils, a été démontrée dans plusieurs études. Régulièrement durant les dernières années, de nombreuses associations médicales ont publié des recommandations cliniques concernant les activités de dépistage et de prévention qui sont une condition essentielle pour le succès, mais ne sont pas forcément appliquées de manière systématique dans la pratique médicale quotidienne. Des contraintes spécifiques contribuent à l'écart entre le désir des médecins de pratiquer une médecine préventive et la réalité d'un cabinet médical. Nous n'avons que peu de données sur les conditions actuelles dans lesquelles la prévention et la promotion de la santé sont réalisées par les médecins de famille suisses dans leur travail quotidien. Des informations précises et représentatives sur leurs perceptions et leurs besoins, leurs attitudes et les contraintes auxquelles ils sont confrontés manquent. Or ces données sont essentielles dans le développement de nouveaux outils et programmes visant une meilleure implémentation des recommandations cliniques dans le domaine de la prévention et la promotion de la santé dans la médecine de famille en Suisse. OBJECTIFS Le développement de concepts pour une prévention systématique ainsi que d'outils adéquats, tout comme l'amélioration des conditions qui permettent une implémentation à grande échelle, implique, avant tout, l'analyse de la perception que les médecins de famille suisses ont de leur rôle dans la prévention. Par conséquent, cette étude a eu pour objectif d'obtenir des informations concernant les questions suivantes : ? Que signifient la prévention et la promotion de la santé pour les médecins de famille suisses ? ? Quelles sont leurs incitations et les barrières rencontrées ? ? Quelles sont leurs idées et leurs suggestions pour faire face à ces contraintes ? ? Quels sont leurs besoins et leurs attentes concernant les outils pour la prévention ? METHODES Nous avons mené un projet de recherche qualitative en utilisant la technique des focus groups pour examiner les questions mentionnées ci-dessus. Une telle technique de collecte de données est particulièrement adaptée à un domaine où l'on connaît mal les perceptions des parties prenantes. Nous avons mené 13 focus groups au total, comprenant des médecins issus de huit cantons: cinq groupes ont eu lieu en Suisse alémanique et huit groupes en Suisse romande. Chaque groupe était composé de 4 à 11 médecins de famille, avec au total 102 participants qui ont été défrayés pour leur participation. Les séances ont été audio-enregistrées et transcrites. ANALYSE DES DONNEES L'analyse du contenu des transcriptions a commencé par la classification des données selon une typologie dont le premier niveau a été développé à partir de la structure de la grille d'entretiens. Cette typologie a été affinée et élargie en regroupant successivement des propos similaires. Une synthèse a été effectuée pour chaque catégorie. Ce rapport est basé sur les résultats de l'analyse des données des cantons francophones. RESULTATS Les médecins perçoivent un changement de leur rôle dans une société et dans un système de santé qui évoluent. Ils soulignent l'importance de la relation personnalisée et durable du médecin de famille avec son patient, atout précieux, qui leur permet de réaliser des activités de prévention individualisées et adaptées à la situation et aux besoins du patient, considérées plus efficaces. Afin de surmonter leur doutes et découragement par rapport aux interventions de prévention, ils pointent la nécessité d'une formation aux nouvelles connaissances en prévention et promotion de la santé et d'une meilleure information aux médecins quant à leur efficacité et importance. Ils montrent le besoin d'un signal clair des politiques par rapport à l'attribution de ce mandat aux médecins de famille et de leur reconnaissance en tant qu'acteur de prévention dans le système de santé.
Resumo:
While a number of plants, animals, and insects in Madagascar have been called 'invasive', the topic of invasive species has until recently received less attention here than in other island contexts. Some species, often alien to Madagascar and introduced by humans, have expanded their range rapidly and have had both negative and positive effects on landscapes, on native biodiversity, and on livelihoods. Examples include the prickly pear (raketa), the silver wattle (mimosa), and, recently, the Asian common toad (radaka boka). Building on a conceptual approach to 'invasive species', this paper emphasizes the importance of inclusive and deliberative site- and population - specific management of invasive species. It analyses three separate concepts commonly used in definitions of invasion: the origin, behaviour, and effects of particular species. It places these concepts in their broader social and ecological context, with particular attention to local perspectives on invasive species. We illustrate these concepts with Malagasy examples and data. The examples demonstrate that while invasions can have dramatic consequences, there can be multiple, often competing, interests as well as site - specific biophysical, environmental, and cultural considerations that need to be taken into account when designing policy and management interventions. We conclude with a number of lessons learned. RESUME FRANCAIS Contrairement à la plupart des autres îles, et en dépit du qualificatif 'invasif' rattaché depuis longtemps à certaines espèces qui s'y sont naturalisées, les réflexions autour de l'approche des espèces invasives à Madagascar demeurent récentes. L'opuntia (Opuntia spp.) figure certes parmi les plus anciens exemples d'espèces traités dans la littérature sur les invasions biologiques. Mais ce n'est vraiment qu'avec le retentissement médiatique autour de la détection en 2011 de la présence du crapaud masqué (Duttaphrynus melanostictus) et la recherche d'une parade appropriée que s'est affirmée la nécessité de traiter cette question des espèces invasives en tant que telle. Une posture nativiste et uniforme qui ignorerait la spécificité des contextes biophysiques et socio - économiques locaux, mais aussi la pluralité des formes d'invasion biologique et des défi- nitions qui s'y rattachent, ne saurait être privilégiée. L'article montre qu'il s'agit de situer les réflexions dans un contexte insulaire socio - économique dans lequel les espèces allogènes tiennent depuis longtemps une large place. Il défend en outre la nécessité d'envisager les espèces invasives non pas selon une forme de perception unique et autoritariste, mais selon une diversité de points de vue, conforme aux conflits d'intérêts qui se manifestent parfois, et mettant plutôt en avant le caractère exogène des espèces invasives, leurs effets (négatifs, mais aussi positifs) sur le milieu, ou leur mode de fonctionnement (disper- sion, dominance) dans des contextes spécifiques et locaux. Il convient en particulier d'observer qu'aux coûts générés par les invasions biologiques peuvent s'ajouter des bénéfices économiques, et que les impacts écologiques néfastes peuvent se combiner avec des incidences heureuses, y compris auprès d'espèces indigènes en situation critique. En outre, le point de vue des populations humaines, leur connaissance d'espèces invasives quotidiennement rencontrées, leur réticence à scin- der le vivant en espèces indigènes et allogène, mais aussi leur vision pragmatique, ne sauraient être mésestimés, et moins encore oubliés. Enfin, l'article invite à prendre du recul face aux effets rhétoriques liés aux discours conventionnels sur les inva- sions biologiques, à éviter les amalgames et les généralisations excessives, à tenir compte des contraintes environnementales mais aussi des aspirations socio - économiques des populations locales, et à prendre en compte la diversité des spécificités locales, qu'elles soient biophysiques ou sociales. En conclusion, il est sans doute heureux que Madagascar n'ait rejoint que très récemment la mouvance internationale des réflexions sur les espèces invasives : cela lui permet en effet d'être en mesure de disposer d'une position équilibrée, déjouant certains discours catastrophistes, et préférant une approche résolument contextualisée, à l'échelle nationale comme aux échelles régionales.
Resumo:
Depuis une cinquantaine d'années, nombreuses sont les études qui s'intéressent aux interactions entre les milieux de vie et leur impact sur la santé. Deux axes principaux se dégagent : l'un focalisé sur le conflit travail-famille en termes de notions liées au stress, et l'autre faisant la promotion du bien-être via l'équilibre travail-vie privée. Cependant, peu de travaux portent sur la dimension contextualisée de ce phénomène, dans son rapport à l'activité quotidienne concrète. Cette étude est consacrée à l'articulation travail - vie privée et son influence sur le bien-être subjectif (corporo-socio-psychologique) chez des femmes cadres en Suisse romande. Cette population est un terrain privilégié pour comprendre le sens donné à l'activité à partir des contraintes, responsabilités, et sollicitations perçues dans des contextes différents. Abordée selon une perspective qualitative en psychologie de la santé, notre approche permet de définir l'expérience plurielle de ces femmes par rapport aux divers groupes d'appartenance et par rapport à leur propre corporéité. Ces résultats ouvrent de nouvelles perspectives de recherche et d'intervention, notamment dans le domaine de la santé au travail.
Resumo:
[spa] Esta comunicación investiga la manipulación de resultados en las pymes españolas en el período 2000-2008. Se trabaja con dos muestras de empresas (solventes e insolventes) y el proceso seguido ha consistido en recoger datos contables de los cinco años previos antes del concurso de acreedores y emparejarlas con otras de similares características en el año de la declaración. A partir de estas muestras se han aplicado los modelos que más frecuentemente se utilizan para estudiar la manipulación, los basados en variables de devengo y en ingresos. Los resultados ponen de relieve lo poco adecuados que resultan en general por los bajos resultados obtenidos y la superioridad de los basados en ingresos sobre los basados en el devengo. El siguiente paso ha consistido en aplicar indicadores de posible manipulación y reestimar los modelos antes citados de acuerdo con estas variables. Los resultados no han sido mejores y la aplicación del mejor modelo para detectar a las empresas que probablemente podían ser manipuladoras, reafirman su poca capacidad explicativa.
Resumo:
[spa] Esta comunicación investiga la manipulación de resultados en las pymes españolas en el período 2000-2008. Se trabaja con dos muestras de empresas (solventes e insolventes) y el proceso seguido ha consistido en recoger datos contables de los cinco años previos antes del concurso de acreedores y emparejarlas con otras de similares características en el año de la declaración. A partir de estas muestras se han aplicado los modelos que más frecuentemente se utilizan para estudiar la manipulación, los basados en variables de devengo y en ingresos. Los resultados ponen de relieve lo poco adecuados que resultan en general por los bajos resultados obtenidos y la superioridad de los basados en ingresos sobre los basados en el devengo. El siguiente paso ha consistido en aplicar indicadores de posible manipulación y reestimar los modelos antes citados de acuerdo con estas variables. Los resultados no han sido mejores y la aplicación del mejor modelo para detectar a las empresas que probablemente podían ser manipuladoras, reafirman su poca capacidad explicativa.