184 resultados para structure du marché
Resumo:
The function of sleep remains unknown. To gain insight into the function of sleep in natural conditions, I assessed variation in sleep architecture and its link with fitness-related phenotypic traits. I considered melanin-based coloration because its underlying genetic basis is very well known giving an opportunity to examine whether some genes pleiotropically regulate both coloration and sleep. The melanocortin system is known to generate covariation between melanin-based coloration and other phenotypes like behaviour, physiology and life history traits. I investigated whether this system of genes could participate in the co-expression of coloration and sleep. I carried out a study with nestling barn owls (Tyto alba) in order to tackle the potential link between variation in color traits and the ontogeny of sleep under natural conditions. For this I established a suitable method for recording the brain activity (electroencephalogram) of owls in nature. Birds are especially interesting, because they convergently evolved sleep states similar to those exhibited by mammals. As in mammals, I found that in owlets time spent in rapid eye movement (REM) sleep declines with age, a relationship thought to eflect developmental changes in the brain. Thus this developmental trajectory appears to reflect a fundamental feature of sleep. Additionally, I discovered an association between a gene involved in melanism expressed in the feather follicles (proprotein convertase subtilisin/kexin type 2, PCSK2) and the age-related changes in sleep in the brain. Nestlings with higher expression levels of PCSK2 showed a more precocial pattern of sleep development and a higher degree of melanin-based coloration compared to nestlings with lower PCSK2 expression. Also sleep architecture and the development of rhythmicity in brain and physical activity was related to plumage traits of the nestlings and their biological parents. This pattern during ontogeny might reflect differences in life l history strategies, antipredator behaviour and developmental pace. Therefore, differently colored individuals may differentially deal with trade-offs between the costs and benefits of sleep which in turn lead to differences in brain organization and ultimately fitness. These results should stimulate evolutionary biologists to consider sleep as a major life history trait. Résumé La fonction du sommeil reste inconnue. Afin d'acquérir une meilleur compréhension de la fonction du sommeil dans les conditions naturelles, j'ai analysé la variation dans l'architecture du sommeil et son lien avec d'autres traits phénotypiques liés au succès reproducteur (fitness). J'ai choisi et examiné la coloration mélanique, car ses bases génétiques sont bien connues et il est ainsi possible d'étudier si certains gènes, de façon pléiotropique régulent à la fois la coloration et le sommeil. J'ai exploré si ce système génétique était impliqué dans la co-expression de la coloration et du sommeil. J'ai effectué mon étude sur des poussins de chouette effraie (Tyto alba) en condition naturelle, pour rechercher ce lien potentiel entre la variation de la coloration et l'ontogenèse du sommeil. Dans ce but, j'ai établi une méthodologie permettant d'enregistrer l'activité cérébrale (électroencéphalogramme) des chouettes dans la nature. Les oiseaux sont particulièrement intéressants car ils ont développé, par évolution convergente, des phases de sommeil similaires à celles des mammifères. De manière semblable à ce qui a été montré chez les mammifères, j'ai découvert que le temps passé dans le sommeil paradoxal diminue avec l'âge des poussins. On pense que ceci est dû aux changements développementaux au niveau du cerveau. Cette trajectoire développementale semble refléter une caractéristique fondamentale du sommeil. J'ai également découvert une association entre l'un des gènes impliqué dans le mélanisme, exprimé dans les follicules plumeux (proprotein convertase subtilisin/kexin type 2, PCSK2), et les changements dans la structure du sommeil avec l'âge. Les poussins ayant un niveau d'expression génétique élevé de la PCSK2 présentent une structure du sommeil plus précoce et un taux de coloration dû à la mélanine plus élevé que des poussins avec un niveau d'expression moindre de la PCSK2. L'architecture du sommeil et le développement de la rythmicité dans le cerveau ainsi que l'activité physique sont également liés à la coloration des plumes des poussins et pourraient ainsi refléter des différences de stratégies d'histoire de vie, de comportements anti-prédateur et de vitesses développementales. Ainsi, des individus de coloration différente sembleraient traiter différemment les coûts et les bénéfices du sommeil, ce qui aurait des conséquences sur l'organisation cérébrale et pour finir, sur le succès reproducteur. Ces résultats devraient encourager les biologistes évolutionnistes à considérer le sommeil comme un important trait d'histoire de vie. Zusammenfassung Die Funktion von Schlaf ist noch unbekannt. Um mehr Einsicht in diese unter natürlichen Bedingungen zu bekommen, habe ich die Variation in der Schlafarchitektur und die Verknüpfung mit phänotypischen Merkmalen, die mit der Fitness zusammenhängen, studiert. Ich habe mir melanin-basierte Färbung angesehen, da die zugrunde liegende genetische Basis bekannt ist und somit die Möglichkeit gegeben ist, zu untersuchen, ob einige Gene beides regulieren, Färbung und Schlaf. Das melanocortin System generiert eine Kovariation zwischen melanin-basierter Färbung und anderen phänotypischer Merkmale wie Verhalten, Physiologie und Überlebensstrategien. Ich habe untersucht, ob dieses Gensystem an einer gleichzeitigen Steuerung von Färbung und Schlaf beteiligt ist. Dazu habe ich Schleiereulen (Tyto alba) studiert um einen möglichen Zusammenhang zwischen der Variation in der Pigmentierung und der Entwicklung des Schlafs unter natürlichen Bedingungen zu entdecken. Für diese Studie entwickelte ich eine Methode um die Gehirnaktivität (Elektroenzephalogramm) bei Eulen in der Natur aufzunehmen. Vögel sind besonders interessant, da sie die gleichen Schlafstadien aufweisen wie Säugetiere und diese unabhängig konvergent entwickelt haben. Genauso wie bei Säugetieren nahm die Dauer des sogenannten ,,rapid eye movement" (REM) - Schlafes mit zunehmendem Alter ab. Es wird angenommen, dass dieser Zusammenhang die Entwicklung des Gehirns widerspiegelt. Daher scheint dieses Entwicklungsmuster ein fundamentaler Aspekt von Schlaf zu sein. Zusätzlich entdeckte ich einen Zusammenhang zwischen der Aktivität eines Gens in den Federfollikeln (proprotein convertase subtilisin/kexin type 2, PCSK2), das für die Ausprägung schwarzer Punkte auf den Federn der Eulen verantwortlich ist, und den altersabhängigen Änderungen im Schlafmuster im Gehirn. Küken mit höherer Aktivität von PCSK2 zeigten eine frühreifere Schlafentwicklung und eine dunklere Färbung als Küken mit niedriger PCSK2 Aktivität. Die Architekture des Schlafes und die Entwicklung der Rhythmik im Gehirn und die der physischen Aktivität ist mit der Färbung des Gefieders von den Küken und ihren Eltern verknüpft. Dieses Muster während der Entwicklung kann Unterschiede in Überlebensstrategien, Feindabwehrverhalten und in der Entwicklungsgeschwindigkeit reflektieren. Unterschiedlich gefärbte Individuen könnten unterschiedliche Strategien haben um zwischen den Kosten und Nutzen von Schlaf zu entscheiden, was zu Unterschieden in der Gehirnstruktur führen kann und letztendlich zur Fitness. Diese Ergebnisse sollten Evolutionsbiologen stimulieren Schlaf als einen wichtigen Bestandteil des Lebens zu behandeln.
Resumo:
Les évolutions récentes du marché du travail et les transformations de l'action de l'Etat social ont contribué à augmenter l'importance de la réinsertion professionnelle. Le renforcement de l'efficacité des mesures de réinsertion nécessite une prise en compte de tous les acteurs concernés, y compris des employeurs dont le rôle est souvent négligé. Ce travail étudie leur rôle d'un point de vue théorique et empirique, grâce à des entretiens réalisés avec des employeurs de quatre pays, y compris la Suisse. Les facteurs (critère d'embauche, rapports avec les services publics de l'emploi, perception des mesures ...) qui conditionnent la participation des employeurs au processus de réinsertion sont mis en avant et analysés. Le travail montre les attentes des employeurs en termes de stratégies de recherche d'emploi et de comportement des bénéficiaires. Les rapports distants entre les employeurs et les agences publiques de placement sont eux aussi analysés. Les résultats obtenus mettent en lumière la volonté des employeurs de participer à la réinsertion, mais soulignent également l'importance des mécanismes de minimisation des risques pour les employeurs. De plus, la force de la flexibilisation du marché est également démontrée. Finalement, cette meilleure connaissance des craintes et attentes des employeurs permet d'établir des recommandations visant à augmenter l'efficacité des mesures de réinsertion et à améliorer la compréhension mutuelle des différents acteurs de la réinsertion.
Resumo:
Rapport de synthèse : Introduction : Les premières applications cliniques de la thérapie photodynamique (PDT) remontent à plus d'une vingtaine d'années. Basée sur l'activation d'un médicament photosensibilisateur par une source lumineuse à une longueur d'onde spécifique, la PDT permet la destruction sélective de tissus contenant le produit actif. Ce procédé a été expérimenté dans le traitement de cancers en raison de la propriété du médicament à se concentrer dans les tumeurs tout en épargnant les structures normales contigües. Cependant, les photosensibilisateurs utilisés jusqu'à ce jour n'ont pas démontré une accumulation exclusive dans les tissus néoplasiques mais également dans les structures saines avoisinantes induisant une destruction tissulaire non sélective. Notamment, d'importantes complications ont été rapportées suite à l'utilisation de la PDT dans la cavité thoracique après la résection de mésothéliomes pleuraux, et ce malgré l'arrivée de photosensibilisateurs de secondes générations. De ce fait, plusieurs études expérimentales ont été menées afin d'améliorer la sélectivité tumorale du médicament en modulant différentes conditions de traitement et en modifiant la structure du photosensibilisateur par pégylation. Le but de cette étude expérimentale est de corréler l'activité photodynamique, la phototoxicité et la distribution du m-tetrahydroxyphenylchlorin (mTHPC) et de sa forme pégylée, le PEG-mTHPC. De ce fait, un modèle de souris nues porteur de xenogreffes de mésothéliome humain a été utilisé pour étudier les deux photosensibilisateurs. De récents travaux avec ce modèle ont montré que la mesure de la concentration tissulaire du mTHPC et de sa forme pégylée par HPLC restait limitée afin de prédire l'activité photodynamique. De ce fait, nous pensons que les mesures de fluorescence peuvent être plus appropriée. Le signalement fluorescent est mesuré dans le tissu tumoral et dans une région contrôle de la peau afin d'étudier la distribution et l'intensité des deux sensibilisateurs. Méthode : Des souris nues (cd1nu/nu mice) de 8 semaines ont été transplantées avec des fragments de mésothéliome malin humain (H-meso-1). Ces derniers ont été obtenus à partir d'une suspension cellulaire. Au moins trois passages ont été faits dans les animaux, avant que le traitement soit initié. Deux groupes de 6 souris chacun ont été utilisés pour l'injection intraveineuse par la queue du mTHPC à 0.15 mg/kg et du PEG-mTHPC à dose équimolaire. Après trois jour, la tumeur ainsi qu'une région contrôle de la cuisse ont été illuminées sur une surface d'un diamètre de 1.2 cm et pendant 133 secondes avec un laser à une longueur d'onde à 652 nm (fluence 20 J/cm2, fluence rate 150 mW/cm2). Les animaux ont été ensuite sacrifiés 72 heures après l'illumination. L'étendue de la nécrose tumorale et de la région contrôle ont été déterminées en aveugle par histomorphometrie par un pathologue (HJA). La fluorescence microscopique a été évaluée dans 12 souris à une concentration de 0.15 et 0.5 mg/kg pour le mTHPC, et à doses équimolaires pour le PEG-mTHPC. Trois animaux ont été injectés avec le mTHPC à 0.15 mg/kg, 3 autres à dose équimolaire avec la forme pégylée et 6 souris avec le mTHPC à 0.5 mg/kg et à dose équimolaire. Les animaux ont été sacrifiés 72 heures après injection. L'intensité fluorescente des sensibilisateurs a été mesurée dans la tumeur et la région contrôle. Suite à cela, les coupes ont été fixées par H&E et superposées aux images fluorescentes, afin de localiser la distribution des deux photosensibilisateurs dans les différents compartiments tissulaires. Six souris transplantées n'ayant ni été injectées avec les sensibilisateurs ou illuminées ont servi de groupe contrôle. Résultats : Trois jours après l'illumination, la PDT provoque une nécrose tumorale de 10 ±5.4 mm2 pour le mTHPC à 0.15mg/kg et 5.2 ± 4.6 mm2 pour sa forme pégylée à dose équimolaire. Cependant, la nécrose tumorale induite par les deux formulations du sensibilisateur est significativement plus élevée que dans le groupe contrôle (0.33 ± 0.58 mm2) (P=0.02). Toutefois, le mTHPC pégylé provoque une photosensibilité cutanée moins importante que la forme non-pegylée. Dans les deux groupes, aucune nécrose n'a été observée dans la cuisse des animaux. Trois jours après l'injection du mTHPC et de la forme pégylée à 0.15 mg/kg, aucune activité fluorescente n'a été détectée. Cependant, à 0.5 mg/kg, la fluorescence microscopique révèle une distribution hétérogène des deux photo-sensibilisateurs dans le tissu tumoral avec une accumulation prédominante dans les régions peri-vasculaires. Les deux médicaments montrent une distribution intracellulaire homogène dans le cytoplasme et une absence de signalement dans le nucleus. La mesure de l'intensité fluorescente du mTHPC à 0.5mg/kg ne montre pas de différence significative entre le tissu tumoral et la région contrôle. Par contre, le PEG-mTHPC montre une intensité fluorescente supérieure dans le tissu tumoral que dans la peau (ratio tumeur- peau 0.94 pour le mTHPC et 1.73 pour le PEG-mTHPC). Conclusion : L'utilisation du mTHPC à 0.15mg/kg induit une nécrose tumorale similaire à celle du PEG-mTHPC à dose équimolaire. Cependant, ce dernier démontre une photo-toxicité plus atténuée de la peau. La fluorescence microscopique permet de localiser les deux sensibilisateurs dans les différents compartiments tissulaires à partir d'une dose de 0.5 mg/kg. Le PEG-mTHPC induit un signalement fluorescent supérieur dans le tissu tumoral par rapport à la peau. La mesure du signalement fluorescent a le potentiel de prédire l'activité photodynamique du mTHPC et de sa forme pégylée dans les xénogreffes de mésothéliome humain dans un modèle de souris nue.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Dans cette thèse, nous étudions les aspects comportementaux d'agents qui interagissent dans des systèmes de files d'attente à l'aide de modèles de simulation et de méthodologies expérimentales. Chaque période les clients doivent choisir un prestataire de servivce. L'objectif est d'analyser l'impact des décisions des clients et des prestataires sur la formation des files d'attente. Dans un premier cas nous considérons des clients ayant un certain degré d'aversion au risque. Sur la base de leur perception de l'attente moyenne et de la variabilité de cette attente, ils forment une estimation de la limite supérieure de l'attente chez chacun des prestataires. Chaque période, ils choisissent le prestataire pour lequel cette estimation est la plus basse. Nos résultats indiquent qu'il n'y a pas de relation monotone entre le degré d'aversion au risque et la performance globale. En effet, une population de clients ayant un degré d'aversion au risque intermédiaire encoure généralement une attente moyenne plus élevée qu'une population d'agents indifférents au risque ou très averses au risque. Ensuite, nous incorporons les décisions des prestataires en leur permettant d'ajuster leur capacité de service sur la base de leur perception de la fréquence moyenne d'arrivées. Les résultats montrent que le comportement des clients et les décisions des prestataires présentent une forte "dépendance au sentier". En outre, nous montrons que les décisions des prestataires font converger l'attente moyenne pondérée vers l'attente de référence du marché. Finalement, une expérience de laboratoire dans laquelle des sujets jouent le rôle de prestataire de service nous a permis de conclure que les délais d'installation et de démantèlement de capacité affectent de manière significative la performance et les décisions des sujets. En particulier, les décisions du prestataire, sont influencées par ses commandes en carnet, sa capacité de service actuellement disponible et les décisions d'ajustement de capacité qu'il a prises, mais pas encore implémentées. - Queuing is a fact of life that we witness daily. We all have had the experience of waiting in line for some reason and we also know that it is an annoying situation. As the adage says "time is money"; this is perhaps the best way of stating what queuing problems mean for customers. Human beings are not very tolerant, but they are even less so when having to wait in line for service. Banks, roads, post offices and restaurants are just some examples where people must wait for service. Studies of queuing phenomena have typically addressed the optimisation of performance measures (e.g. average waiting time, queue length and server utilisation rates) and the analysis of equilibrium solutions. The individual behaviour of the agents involved in queueing systems and their decision making process have received little attention. Although this work has been useful to improve the efficiency of many queueing systems, or to design new processes in social and physical systems, it has only provided us with a limited ability to explain the behaviour observed in many real queues. In this dissertation we differ from this traditional research by analysing how the agents involved in the system make decisions instead of focusing on optimising performance measures or analysing an equilibrium solution. This dissertation builds on and extends the framework proposed by van Ackere and Larsen (2004) and van Ackere et al. (2010). We focus on studying behavioural aspects in queueing systems and incorporate this still underdeveloped framework into the operations management field. In the first chapter of this thesis we provide a general introduction to the area, as well as an overview of the results. In Chapters 2 and 3, we use Cellular Automata (CA) to model service systems where captive interacting customers must decide each period which facility to join for service. They base this decision on their expectations of sojourn times. Each period, customers use new information (their most recent experience and that of their best performing neighbour) to form expectations of sojourn time at the different facilities. Customers update their expectations using an adaptive expectations process to combine their memory and their new information. We label "conservative" those customers who give more weight to their memory than to the xiv Summary new information. In contrast, when they give more weight to new information, we call them "reactive". In Chapter 2, we consider customers with different degree of risk-aversion who take into account uncertainty. They choose which facility to join based on an estimated upper-bound of the sojourn time which they compute using their perceptions of the average sojourn time and the level of uncertainty. We assume the same exogenous service capacity for all facilities, which remains constant throughout. We first analyse the collective behaviour generated by the customers' decisions. We show that the system achieves low weighted average sojourn times when the collective behaviour results in neighbourhoods of customers loyal to a facility and the customers are approximately equally split among all facilities. The lowest weighted average sojourn time is achieved when exactly the same number of customers patronises each facility, implying that they do not wish to switch facility. In this case, the system has achieved the Nash equilibrium. We show that there is a non-monotonic relationship between the degree of risk-aversion and system performance. Customers with an intermediate degree of riskaversion typically achieve higher sojourn times; in particular they rarely achieve the Nash equilibrium. Risk-neutral customers have the highest probability of achieving the Nash Equilibrium. Chapter 3 considers a service system similar to the previous one but with risk-neutral customers, and relaxes the assumption of exogenous service rates. In this sense, we model a queueing system with endogenous service rates by enabling managers to adjust the service capacity of the facilities. We assume that managers do so based on their perceptions of the arrival rates and use the same principle of adaptive expectations to model these perceptions. We consider service systems in which the managers' decisions take time to be implemented. Managers are characterised by a profile which is determined by the speed at which they update their perceptions, the speed at which they take decisions, and how coherent they are when accounting for their previous decisions still to be implemented when taking their next decision. We find that the managers' decisions exhibit a strong path-dependence: owing to the initial conditions of the model, the facilities of managers with identical profiles can evolve completely differently. In some cases the system becomes "locked-in" into a monopoly or duopoly situation. The competition between managers causes the weighted average sojourn time of the system to converge to the exogenous benchmark value which they use to estimate their desired capacity. Concerning the managers' profile, we found that the more conservative Summary xv a manager is regarding new information, the larger the market share his facility achieves. Additionally, the faster he takes decisions, the higher the probability that he achieves a monopoly position. In Chapter 4 we consider a one-server queueing system with non-captive customers. We carry out an experiment aimed at analysing the way human subjects, taking on the role of the manager, take decisions in a laboratory regarding the capacity of a service facility. We adapt the model proposed by van Ackere et al (2010). This model relaxes the assumption of a captive market and allows current customers to decide whether or not to use the facility. Additionally the facility also has potential customers who currently do not patronise it, but might consider doing so in the future. We identify three groups of subjects whose decisions cause similar behavioural patterns. These groups are labelled: gradual investors, lumpy investors, and random investor. Using an autocorrelation analysis of the subjects' decisions, we illustrate that these decisions are positively correlated to the decisions taken one period early. Subsequently we formulate a heuristic to model the decision rule considered by subjects in the laboratory. We found that this decision rule fits very well for those subjects who gradually adjust capacity, but it does not capture the behaviour of the subjects of the other two groups. In Chapter 5 we summarise the results and provide suggestions for further work. Our main contribution is the use of simulation and experimental methodologies to explain the collective behaviour generated by customers' and managers' decisions in queueing systems as well as the analysis of the individual behaviour of these agents. In this way, we differ from the typical literature related to queueing systems which focuses on optimising performance measures and the analysis of equilibrium solutions. Our work can be seen as a first step towards understanding the interaction between customer behaviour and the capacity adjustment process in queueing systems. This framework is still in its early stages and accordingly there is a large potential for further work that spans several research topics. Interesting extensions to this work include incorporating other characteristics of queueing systems which affect the customers' experience (e.g. balking, reneging and jockeying); providing customers and managers with additional information to take their decisions (e.g. service price, quality, customers' profile); analysing different decision rules and studying other characteristics which determine the profile of customers and managers.
Resumo:
Contrairement aux animaux, les plantes sont des organismes sessiles qui ne possèdent pas de mécanismes de fuite quand les conditions environnementales ne sont plus optimales. Les plantes sont physiquement ancrées à l'endroit où elles ont germées et aux conditions environnementales qui parfois peuvent être extrêmes. Les possibilités d'acclimatation de différentes espèces, parfois même de groupes de plantes au sein d'une même espèce, peuvent varier mais repose sur une adaptation génétique de la plante. L'adaptation est un long processus qui repose sur l'apparition spontanée de mutations génétiques, leur mise à l'épreuve face aux conditions environnementales, et dans le cas où la mutation a un impact positif sur la survie dans cet habitat particulier, elle sera maintenue dans une population donnée de plantes. De telles populations, appelées écotypes, sont le matériel de départ pour la découverte de gènes qui induisent un bénéfice pour la plante dans un environnement donné. La plante la plus étudiée en biologie moléculaire est Arabidopsis thaliana, l'arabette des prés. Dans une étude précédente, les racines d'écotypes naturels d'Arabidopsis ont été comparées et un écotype, Uk-1, avait le système racinaire le plus particulier. Cet écotype possède des racines beaucoup plus courtes et plus ramifiées que tous les autres écotypes. Des analyses plus poussées ont montré qu'une seule mutation dans un gène était la cause de ce phénotype, le gène BREVIS RADIX (BRX), mot latin signifiant 'racine courte'. Bien que l'on connaisse le gène BRX, on connaît finalement peu de choses sur son importance adaptative. Dans cette étude, nous avons montré que la mutation dans le gène BRX rend la plante plus résistante aux sols acides. Dans l'optique de mieux comprendre cette valeur adaptative du mutant brx, nous avons analysé dans quels tissus le gène BRX jouait un rôle important. Nous avons pu mettre en évidence que BRX est important pour le développement du protophloème. Le protophloème est un élément du système vasculaire de la plante. En général, les plantes supérieures possèdent deux systèmes de transport à longue distance. L'un d'eux, appelé xylème, transporte l'eau et les nutriments absorbés du sol par les racines vers les feuilles. Les feuilles sont le siège du processus de photosynthèse au cours duquel sont produits des sucres qui devront être distribués partout dans les autres parties de la plante. Le tissu cellulaire chargé de livrer les produits de la photosynthèse, ainsi que les régulateurs de croissance, est le phloème. Ce dernier regroupe le métaphloème et le protophloème. Le protophloème est essentiel pour la livraison des sucres synthétisés ainsi que des signaux de croissance aux pointes des racines, centres organogéniques responsables de la production de nouvelles cellules durant la phase de croissance de la racine. La structure du protophloème peut être décrite comme des tubes continus, vides et résistants, faits de cellules spécialisées qui permettent un transport efficace et rapide. Nous avons montré que dans les mutants brx ces canaux de transports sont discontinus car certaines cellules n'ont pas terminé leur cycle de différenciation. Ces cellules obstruent le conduit ce qui fait que les sucres et les signaux de croissance, comme l'auxine, ne peuvent plus être transportés aux méristèmes. En conséquence, la prolifération de l'activité des méristèmes est compromise, ce qui explique les racines courtes. Au lieu d'être délivré aux méristèmes, l'auxine se concentre en amont des méristèmes où cela provoque l'apparition de nouvelles racines branchées et, très probablement, l'activation des pompes à protons. Sur des sols acides, la concentration en ion H+ est très élevée. Ces ions entrent dans les cellules de la racine par diffusion et perturbent notablement la croissance des racines et de la plante en général. Si les cellules de la racine possédaient des pompes à protons hyperactives, elles seraient capable d'évacuer le surplus d'ions H+ en dehors de la cellule, ce qui leur assurerait de meilleures chances de survie sur sols acides. De fait, le mutant brx est capable d'acidifier le milieu de culture dans lequel il est cultivé plus efficacement que la plante sauvage. Ce mutant est également capable de donner plus de progéniture sur ce type de milieu de croissance que les plantes sauvages. Finalement, nous avons trouvé d'autres mutants brx en milieu naturel poussant sur sols acides, ce qui suggère fortement que la mutation du gène BRX est une des causes de l'adaptation aux sols acides. -- Plants as sessile organisms have developed different mechanisms to cope with the complex environmental conditions in which they live. Adaptation is the process through which traits evolve by natural selection to functionally improve in a given environmental context. An adaptation to the environment is characterized by the genetic changes in the entire populations that have been fixed by natural selection over many generations. BREVIS RADIX (BRX) gene was found through natural Arabidopsis accessions screen and was characterized as a root growth regulator since loss-of-function mutants exhibit arrested post-embryonic primary root growth in addition to a more branched root system. Although brx loss-of-function causes a complete alteration in root architecture, BRX activity is only required in the root vasculature, in particular in protophloem cell file. Protophloem is a part of the phloem transport network and is responsible for delivery of photo-assimilates and growth regulators, coming from the shoot through mature phloem component - metaphloem, to the all plant primary meristems. In order to perform its function, protophloem is the first cell file to differentiate within the root meristem. During this process, protophloem cells undergo a partial programmed cell death, during which they build a thicker cell wall, degrade nucleus and tonoplast while plasma membrane stays functional. Interestingly, protophloem cells enter elongation process only after differentiation into sieve elements is completed. Here we show that brx mutants fail to differentiate protophloem cell file properly, a phenotype that can be distinguished by a presence of a "gap" cells, non-differentiated cells between two flanking differentiated cells. Discontinuity of protophloem differentiation in brx mutants is considered to be a consequence of local hyperactivity of CLAVATA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3) signaling module. Interestingly, a CLE45 activity, most probably at the level of receptor binding, can be modulated by apoplastic pH. Altogether, our results imply that the activity of proton pumps, expressed in non-differentiated cells of protophloem, must be maintained under certain threshold, otherwise CLE45-BAM3 signaling pathway will be stimulated and in turn protophloem will not differentiate. Based on vacuolar morphology, a premature cell wall acidification in brx mutants stochastically prevents the protophloem differentiation. Only after protophloem differentiates, proton pumps can be activated in order to acidify apoplast and to support enucleated protophloem multifold elongation driven by surrounding cells growth. Finally, the protophloem differentiation failure would result in an auxin "traffic jam" in the upper parts of the root, created from the phloem-transported auxin that cannot be efficiently delivered to the meristem. Physiologically, auxin "leakage" from the plant vasculature network could have various consequences, since auxin is involved in the regulation of almost every aspect of plant growth and development. Thus, given that auxin stimulates lateral roots initiation and growth, this scenario explains more branched brx root system. Nevertheless, auxin is considered to activate plasma membrane proton pumps. Along with this, it has been shown that brx mutants acidify media much more than the wild type plants do, a trait that was proposed as an adaptive feature of naturally occurring brx null alleles in Arabidopsis populations found on acidic soils. Additionally, in our study we found that most of accessions originally collected from acidic sampling sites exhibit hypersensitivity to CLE45 treatment. This implies that adaptation of plants to acidic soil involves a positive selection pressure against upstream negative regulators of CLE45-BAM3 signaling, such as BRX. Perspective analysis of these accessions would provide more profound understanding of molecular mechanisms underlying plant adaptation to acidic soils. All these results are suggesting that targeting of the factors that affect protophloem differentiation is a good strategy of natural selection to change the root architecture and to develop an adaptation to a certain environment. -- Les plantes comme organismes sessiles ont développé différents mécanismes pour s'adapter aux conditions environnementales complexes dans lesquelles elles vivent. L'adaptation est le processus par lequel des traits vont évoluer via la sélection naturelle vers une amélioration fonctionnelle dans un contexte environnemental donné. Une adaptation à l'environnement est caractérisée par des changements génétiques dans des populations entières qui ont été fixés par la sélection naturelle sur plusieurs générations. Le gène BREVIS RADIX (BRX) a été identifié dans le crible d'une collection d'accessions naturelles d'Arabidopsis et a été caractérisé comme un régulateur de la croissance racinaire étant donné que le mutant perte-de-fonction montre une croissance racinaire primaire arrêtée au stade post-embryonnaire et présente de plus un système racinaire plus ramifié que la plante sauvage. Bien que le mutant perte-de-fonction brx cause une altération complète de l'architecture racinaire, l'activité de BRX n'est requise que dans la vascularisation racinaire, en particulier au niveau du protophloème. Le protophloème est un composant du réseau de transport du phloème et est responsable du transit des dérivés de la photosynthèse ainsi que des régulateurs de croissances, venant de la partie aérienne par le phloème mature (métaphloème) vers tous les méristèmes primaires de la plante. Pour pouvoir réaliser sa fonction, le protophloème est la première file de cellules à se différencier à l'intérieur du méristème de la racine. Pendant ce processus, les cellules du protophloème subissent une mort cellulaire programmée partielle durant laquelle elles épaississent leur paroi cellulaire, dégradent le noyau et le tonoplaste tandis que la membrane plasmique demeure fonctionnelle. De manière intéressante, les cellules du protophloème entament le processus d'allongement seulement après que la différenciation en tubes criblés soit complète. Ce travail montre que le mutant brx est incapable de mener à bien la différenciation de la file de cellules du protophloème, phénotype qui peut être visualisé par la présence de cellules 'trous', de cellules non différenciées entourées de deux cellules différenciées. La discontinuité de la différenciation du phloème dans le mutant brx est considérée comme la conséquence de l'hyperactivité localisée du module de signalisation CLA VA TA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3). De manière intéressante, l'activité de CLE45, très probablement au niveau de la liaison avec le récepteur, peut être modulé par le pH apoplastique. Pris ensemble, nos résultats impliquent que l'activité des pompes à protons, actives dans les cellules non différenciées du protophloème, doit être maintenue en dessous d'un certain seuil autrement la cascade de signalisation CLE45-BAM3 serait stimulée, en conséquence de quoi le protophloème ne pourrait se différencier. D'après la morphologie vacuolaire, une acidification prématurée de la paroi cellulaire dans le mutant brx empêche la différenciation du protophloème de manière stochastique. Une fois que le protophloème se différencie, les pompes à protons peuvent alors être activées afin d'acidifier l'apoplaste et ainsi faciliter l'allongement des cellules énuclées du protophloème, entraînées par la croissance des cellules environnantes. Finalement, la différenciation défectueuse du protophloème produit une accumulation d'auxine dans la partie supérieure de la racine car le phloème ne peut plus acheminer efficacement l'auxine au méristème. Physiologiquement, la 'fuite' d'auxine à partir du réseau vasculaire de la plante peut avoir des conséquences variées puisque l'auxine est impliquée dans la régulation de la majorité des aspects de la croissance et développement de la plante. Etant donné que l'auxine stimule l'initiation et développement des racines latérales, ce scénario pourrait expliquer le système racinaire plus ramifié du mutant brx. En plus, l'auxine est considérée comme un activateur des pompes à protons. Par ailleurs, nous avons montré que les mutants brx ont la capacité d'acidifier le milieu plus efficacement que les plantes sauvages, une caractéristique des populations sauvages <¥Arabidopsis poussant sur des sols acides et contenant les allèles délétés brx. De plus, dans nos résultats nous avons mis en évidence que la plupart des accessions collectées originellement sur des sites acidophiles montre une hypersensibilité au traitement par CLE45. Ceci implique que l'adaptation des plantes aux sols acides repose sur la pression de sélection positive à rencontre des régulateurs négatifs de CLE45- BAM3, situés en amont de la cascade, tel le produit du gène BRX. Les analyses de ces accessions pourraient aboutir à une meilleure compréhension des mécanismes moléculaires responsables de l'adaptation des plantes aux sols acides. Tous nos résultats suggèrent que le ciblage des facteurs affectant la différenciation du protophloème serait une stratégie gagnante dans la sélection naturelle pour changer l'architecture de la racine et ainsi s'adapter efficacement à un nouvel environnement.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
The thesis addresses the issue of parenthood and gender equality in Switzerland through the emergence of parental leave policies. This is an original and relevant research topic, as Switzerland is one of the few industrialized countries that have not yet implemented a parental or paternity leave. I first describe the emergence of parental leave policies in the last ten to fifteen years in the political, media, and labor-market spheres. Secondly, adopting a gender and discursive theoretical approach, I analyze whether and to what extent this emergence challenged gendered representations and practices of parenthood. The multilevel and mixed-methods research design implies analyzing various data sets such as parliamentary interventions (N=23J and newspaper articles (N=579) on parental leave policies. A case study of a public administration which implemented a one-month paid paternity leave draws on register data of leave recipients (N=95) and in-depth interviews with fathers and managers (n=30). Results show that parental leave policies, especially in recent years, have been increasingly problematized in the three social spheres considered, as a result of political and institutional events. While there is a struggle over the definition of the legitimate leave type to implement [parental or paternity leave) in the political sphere, paternity leave has precedence in the media and labor-market spheres. Overall, this emergence contributes to making fatherhood visible in the public sphere, challenging albeit in a limited way gendered representations and practices of parenthood. Along with representations of involved fatherhood and change in gender relations, different roles and responsibilities are attributed to mothers and fathers, the latter being often defined as secondary, temporary and optional parents. Finally, I identify a common trend, namely the increasing importance of the economic aspects of parental leave policies with the consequence of sidelining their gender-equality potential. The dissertation contributes to the literature which analyzes the interconnections between the macro-, the meso- and the micro-levels of society in the constitution of gender relations and parenthood. It also provides useful tools for the analysis of the politics of parental leave policies in Switzerland and their effects for gender equality. - Cette thèse traite de la parentalité et de l'égalité de genre en Suisse à travers l'émergence des congés parentaux. Ce sujet de recherche est original et pertinent puisque la Suisse est à ce jour un des seuls pays industrialisés à ne pas avoir adopté de droit au congé parental ou paternité. Cette recherche décrit l'émergence des congés parentaux au cours des 10 à 15 dernières années dans les sphères politique, médiatique et du marché de l'emploi en Suisse. En combinant perspective de genre et analyse de discours, elle examine dans quelle mesure cette émergence remet en question les représentations et pratiques genrées de parentalité. Des méthodes de recherche mixtes sont employées pour analyser des interventions parlementaires (N=23) et des articles de presse (N=579) sur les congés parentaux. L'étude de cas d une entreprise publique qui a adopté un congé paternité payé d'un mois s'appuie sur des données de registre (N=95) et des entretiens semi-structurés avec des pères et des cadres (n=30). Les résultats indiquent que dans les trois sphères considérées, les congés parentaux ont reçu une attention croissante au cours de ces dernières années, en lien avec des événements politiques et institutionnels. Alors que dans la sphère politique il n'y a pas de consensus quant au type de congé considéré comme légitime (congé parental ou paternité), dans les sphères médiatique et du marché de l'emploi le congé paternité semble l'emporter. Dans l'ensemble, l'émergence des congés parentaux contribue à rendre la paternité plus visible dans l'espace public, remettant en question-bien que d'une manière limitée-les représentations genrées de la parentalité. En effet, d'une part l'image de pères impliqués et de rapports de genre plus égalitaires au sein de la famille est diffusée. D'autre part, mères et pères continuent à être associés à des rôles différents, les pères étant définis comme des parents secondaires et temporaires. Finalement, l'analyse révèle une tendance générale, soit l'importance croissante accordée aux aspects économiques des congés parentaux, avec pour conséquence la mise à l'écart de leur potentiel pour l'égalité de genre. Cette thèse contribue à la recherche sur les liens entre les niveaux macro- meso- et microsociaux dans la constitution des rapports de genre et de la parentalité. Elle propose également des outils pour analyser les politiques de congés parentaux en Suisse et leurs implications pour l'égalité de genre.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Dans une perspective institutionnaliste et territoriale, cet article interroge le couplage entre la finance de marché d'une part et l'économie réelle d'autre part. La crise actuelle est présentée comme le résultat d'une autonomisation progressive de la finance vis-à-vis de l'économie réelle, qui peut être comprise comme la construction d'une géographie spécifique, caractérisée par une extrême concentration dans les principales places financières mondiales et d'un contrôle qui s'exerce à partir de là vers les régions productrices d'une part et vers les sources d'épargne d'autre part. L'économie réelle de son côté est restée organisée de manière plus traditionnelle, la cohérence du marché du travail et de l'accumulation des connaissances résidant toujours pour l'essentiel à l'échelle des régions et des nations. C'est aussi à ces échelles que se posent les préoccupations sociales et environnementales est qu'est donc organisée la reproduction des ressources. Dès lors, les réflexions sur un système financier alternatif nécessiteraient de repenser la manière dont on articule les investisseurs et les entreprises avec les contextes régionaux et nationaux qui leur permettent de développer leur fortune et de développer leurs activités.