1000 resultados para Otite moyenne aiguë


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Quatre génotypes pathogènes de l'hépatite E (HEV) sont actuellement connus. Ils présentent des caractéristiques épidémiologiques différentes. Les génotypes 1 et 2 infectent uniquement l'homme et sont à l'origine d'épidémies dans des pays en voie de développement. Les génotypes 3 et 4 se présentent sous forme de zoonose, endémiques chez des cochons et autres mammifères dans des pays industrialisés. Ces derniers génotypes sont à l'origine de cas sporadiques d'hépatite E autochtones. La majorité des tests de sérologie actuellement commercialisés se basent sur des virus de génotype 1 et 2. Le bénéfice de l'utilisation d'un test sérologique basé sur le génotype 3 dans des pays industrialisés n'a pas été étudié jusqu'à présent. Dans cette étude, les performances de tests sérologiques basés sur des antigènes de plusieurs génotypes de l'HEV ont été comparées. Méthode Les tests ont été appliqués à deux populations distinctes: une population de 20 patients, chez qui une infection aiguë d'hépatite E, génotype 3, a été documentée par PCR sanguine, et une population de 550 donneurs de sang de la région de Lausanne. Le dépistage des IgGs anti-HEV a été effectué dans le sérum des deux populations par trois «Enzyme Immuno Assays» (EIA) à savoir MP Diagnostics, Dia.Pro et Fortress. Les échantillons positifs avec au moins un des EIA ont été testés par un «Immunodot Assay», le recomLine HEV IgG/IgM. Tous les EIA sont basés sur des antigènes des génotypes 1 et 2, alors que l'immunodot se base sur des antigènes des génotypes 1 et 3. Résultats Tous les échantillons des cas d'hépatite E documentés et 124 sur 550 échantillons des donneurs de sang étaient positifs avec au moins un des tests sérologique. Parmi les cas confirmés par PCR, 45 %, 65 %, 95 % et 55 % étaient respectivement positifs avec le test de MP Diagnostics, Dia.Pro, Fortress et recomLine. Parmi les échantillons positifs des donneurs de sang avec au moins un des tests, 120/124 (97 %) étaient positifs avec le test Fortress, 19/124 (15 %) étaient positifs avec tous les EIA et 51/124 (41 %) étaient positifs avec le recomLine. Parmi les cas d'hépatite E confirmés, 11/20 (55 %) étaient positifs avec le recomLine et parmi ceux-ci, une réactivité plus forte pour le génotype 3 était observée dans 1/11 (9 %) et une réactivité identique dans 5/11 (45.5 %) cas. Conclusions Même si le recomLine contient des protéines dérivées de l'HEV génotype 3, sa sensibilité est inférieure à l'EIA de Fortress dans les cas d'hépatite E aiguë de génotype 3. De plus, chez environ 45 % des patients, le recomLine ne parvient pas à identifier une infection comme étant causé par un virus du génotype 3. Dans la population de donneurs de sang, nous avons observe de grandes variations dans les séroprévalences mesurées, allant de 4.2 % à 21.8 % selon les tests sérologiques employés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les aspects comportementaux d'agents qui interagissent dans des systèmes de files d'attente à l'aide de modèles de simulation et de méthodologies expérimentales. Chaque période les clients doivent choisir un prestataire de servivce. L'objectif est d'analyser l'impact des décisions des clients et des prestataires sur la formation des files d'attente. Dans un premier cas nous considérons des clients ayant un certain degré d'aversion au risque. Sur la base de leur perception de l'attente moyenne et de la variabilité de cette attente, ils forment une estimation de la limite supérieure de l'attente chez chacun des prestataires. Chaque période, ils choisissent le prestataire pour lequel cette estimation est la plus basse. Nos résultats indiquent qu'il n'y a pas de relation monotone entre le degré d'aversion au risque et la performance globale. En effet, une population de clients ayant un degré d'aversion au risque intermédiaire encoure généralement une attente moyenne plus élevée qu'une population d'agents indifférents au risque ou très averses au risque. Ensuite, nous incorporons les décisions des prestataires en leur permettant d'ajuster leur capacité de service sur la base de leur perception de la fréquence moyenne d'arrivées. Les résultats montrent que le comportement des clients et les décisions des prestataires présentent une forte "dépendance au sentier". En outre, nous montrons que les décisions des prestataires font converger l'attente moyenne pondérée vers l'attente de référence du marché. Finalement, une expérience de laboratoire dans laquelle des sujets jouent le rôle de prestataire de service nous a permis de conclure que les délais d'installation et de démantèlement de capacité affectent de manière significative la performance et les décisions des sujets. En particulier, les décisions du prestataire, sont influencées par ses commandes en carnet, sa capacité de service actuellement disponible et les décisions d'ajustement de capacité qu'il a prises, mais pas encore implémentées. - Queuing is a fact of life that we witness daily. We all have had the experience of waiting in line for some reason and we also know that it is an annoying situation. As the adage says "time is money"; this is perhaps the best way of stating what queuing problems mean for customers. Human beings are not very tolerant, but they are even less so when having to wait in line for service. Banks, roads, post offices and restaurants are just some examples where people must wait for service. Studies of queuing phenomena have typically addressed the optimisation of performance measures (e.g. average waiting time, queue length and server utilisation rates) and the analysis of equilibrium solutions. The individual behaviour of the agents involved in queueing systems and their decision making process have received little attention. Although this work has been useful to improve the efficiency of many queueing systems, or to design new processes in social and physical systems, it has only provided us with a limited ability to explain the behaviour observed in many real queues. In this dissertation we differ from this traditional research by analysing how the agents involved in the system make decisions instead of focusing on optimising performance measures or analysing an equilibrium solution. This dissertation builds on and extends the framework proposed by van Ackere and Larsen (2004) and van Ackere et al. (2010). We focus on studying behavioural aspects in queueing systems and incorporate this still underdeveloped framework into the operations management field. In the first chapter of this thesis we provide a general introduction to the area, as well as an overview of the results. In Chapters 2 and 3, we use Cellular Automata (CA) to model service systems where captive interacting customers must decide each period which facility to join for service. They base this decision on their expectations of sojourn times. Each period, customers use new information (their most recent experience and that of their best performing neighbour) to form expectations of sojourn time at the different facilities. Customers update their expectations using an adaptive expectations process to combine their memory and their new information. We label "conservative" those customers who give more weight to their memory than to the xiv Summary new information. In contrast, when they give more weight to new information, we call them "reactive". In Chapter 2, we consider customers with different degree of risk-aversion who take into account uncertainty. They choose which facility to join based on an estimated upper-bound of the sojourn time which they compute using their perceptions of the average sojourn time and the level of uncertainty. We assume the same exogenous service capacity for all facilities, which remains constant throughout. We first analyse the collective behaviour generated by the customers' decisions. We show that the system achieves low weighted average sojourn times when the collective behaviour results in neighbourhoods of customers loyal to a facility and the customers are approximately equally split among all facilities. The lowest weighted average sojourn time is achieved when exactly the same number of customers patronises each facility, implying that they do not wish to switch facility. In this case, the system has achieved the Nash equilibrium. We show that there is a non-monotonic relationship between the degree of risk-aversion and system performance. Customers with an intermediate degree of riskaversion typically achieve higher sojourn times; in particular they rarely achieve the Nash equilibrium. Risk-neutral customers have the highest probability of achieving the Nash Equilibrium. Chapter 3 considers a service system similar to the previous one but with risk-neutral customers, and relaxes the assumption of exogenous service rates. In this sense, we model a queueing system with endogenous service rates by enabling managers to adjust the service capacity of the facilities. We assume that managers do so based on their perceptions of the arrival rates and use the same principle of adaptive expectations to model these perceptions. We consider service systems in which the managers' decisions take time to be implemented. Managers are characterised by a profile which is determined by the speed at which they update their perceptions, the speed at which they take decisions, and how coherent they are when accounting for their previous decisions still to be implemented when taking their next decision. We find that the managers' decisions exhibit a strong path-dependence: owing to the initial conditions of the model, the facilities of managers with identical profiles can evolve completely differently. In some cases the system becomes "locked-in" into a monopoly or duopoly situation. The competition between managers causes the weighted average sojourn time of the system to converge to the exogenous benchmark value which they use to estimate their desired capacity. Concerning the managers' profile, we found that the more conservative Summary xv a manager is regarding new information, the larger the market share his facility achieves. Additionally, the faster he takes decisions, the higher the probability that he achieves a monopoly position. In Chapter 4 we consider a one-server queueing system with non-captive customers. We carry out an experiment aimed at analysing the way human subjects, taking on the role of the manager, take decisions in a laboratory regarding the capacity of a service facility. We adapt the model proposed by van Ackere et al (2010). This model relaxes the assumption of a captive market and allows current customers to decide whether or not to use the facility. Additionally the facility also has potential customers who currently do not patronise it, but might consider doing so in the future. We identify three groups of subjects whose decisions cause similar behavioural patterns. These groups are labelled: gradual investors, lumpy investors, and random investor. Using an autocorrelation analysis of the subjects' decisions, we illustrate that these decisions are positively correlated to the decisions taken one period early. Subsequently we formulate a heuristic to model the decision rule considered by subjects in the laboratory. We found that this decision rule fits very well for those subjects who gradually adjust capacity, but it does not capture the behaviour of the subjects of the other two groups. In Chapter 5 we summarise the results and provide suggestions for further work. Our main contribution is the use of simulation and experimental methodologies to explain the collective behaviour generated by customers' and managers' decisions in queueing systems as well as the analysis of the individual behaviour of these agents. In this way, we differ from the typical literature related to queueing systems which focuses on optimising performance measures and the analysis of equilibrium solutions. Our work can be seen as a first step towards understanding the interaction between customer behaviour and the capacity adjustment process in queueing systems. This framework is still in its early stages and accordingly there is a large potential for further work that spans several research topics. Interesting extensions to this work include incorporating other characteristics of queueing systems which affect the customers' experience (e.g. balking, reneging and jockeying); providing customers and managers with additional information to take their decisions (e.g. service price, quality, customers' profile); analysing different decision rules and studying other characteristics which determine the profile of customers and managers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Introduction : La stimulation électrique représente une nouvelle modalité thérapeutique de divers troubles digestifs. Dans la constipation par exemple, le péristaltisme colique peut être activé par un système électrique alimenté par une batterie. La présente étude a pour but de démontrer l'impact d'une stimulation électrique directe du côlon sur le temps de transit moyen, en utilisant un modèle expérimental chronique porcin. L'effet de la stimulation et du matériel implanté dans la paroi colique est également évalué. Matériel et méthode : Trois paires d'électrodes ont été implantées dans la paroi cæcale de douze porcs anesthésiés. Avant implantation, un temps de transit colique de référence a été déterminé chez chaque animal par utilisation de marqueurs radio-opaques. Cette évaluation a été répétée quatre semaines après implantation, sous stimulation factice, et cinq semaines après implantation, sous stimulation électrique. Des trains séquentiels et aboraux de stimulation (10 V ; 120 Hz ; 1 ms) ont été appliqués quotidiennement durant six jours, en utilisant un stimulateur externe fonctionnant sur batteries. Pour chaque série de marqueurs, une valeur moyenne a été calculée à partir du temps de transit individuel des porcs. Un examen microscopique du cæcum a été systématiquement entrepris après sacrifice des animaux. Résultats : Une réduction du temps de transit moyen a été observée après stimulation électrique (19h ± 13 ; moyenne ± DS), comparativement au temps de référence (34h ± 7 ; p=0.045) et au temps de transit après stimulation factice (36h ± 9 ; p=0.035). L'examen histologique a montré la présence d'une inflammation chronique minime, autour des électrodes. Conclusion : Le temps de transit colique porcin peut être réduit, en conditions expérimentales chroniques, par une stimulation électrique directe et séquentielle de l'intestin. Des lésions tissulaires limitées ont été occasionnées par la stimulation ou le matériel implanté. La stimulation électrique colique représente certainement une approche prometteuse du traitement de certains troubles spécifiques du côlon, avant tout fonctionnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHESE : BUT : Le but de ce sujet de recherche est d'évaluer le taux de succès et les complications à long terme de la sclérectomie profonde non pénétrante avec implant de collagène (SPIC) chez les patients atteints de glaucome à angle ouvert. METODES ET PATIENTS : Il s'agit d'une étude clinique, prospective, monocentrique, non-randomisée, effectuée sur 105 patients atteints d'un glaucome à angle ouvert médicalement non-contrôlé. Ces patients ont tous bénéficiés d'une SPIC, effectuée selon le geste chirurgicale standard (technique décrite dans l'article). Dans le cadre de cette étude, nous avons effectué un bilan ophtalmologique complet avant l'acte chirurgical puis un suivi postopératoire à 1 et 7 jours ; 1,2,3,6,9,12 mois et ensuite tous les 6 mois durant les dix années suivantes. RESULTATS : Le suivit moyen de cette étude s'étend sur 101.5 ± 43.1, [3-144] mois (moyenne ± écart type, [étendue]). La pression intraoculaire (PIO) préopératoire était élevée à 26.8 ± 7.7, (14-52] mmHg, et l'acuité visuelle corrigée à 0.71 ± 0.33, [0.02-1.5]. Au terme des dix années après le traitement chirurgical, le nombre de patients suivit était de 52 avec une pression intraoculaire abaissée à 12.2 ± 4.7, [6-20] mmHg et une acuité visuelle corrigée de 0.63 ± 0.34, [0.01-1.2]. Le nombre de médicaments par patient a diminué de 2.3 ± 0.7, [ 1-4] à 1.3 ± 1.1, [0-3]. Dix ans après la SPIC, une pression intraoculaire <_ 21 mmHg sans médicaments (succès complet) était obtenue chez 47.7 % des patients et 89 % avec ou sans traitement médicamenteux (succès relatif). Les gestes postopératoires additionnels par gonioponcture ont été effectués sur 61 yeux (59.8%) et les injections sous-conjonctival de 5-fluorouracil ont été pratiquées sur 25 yeux dont 5 incluant un needling. CONCLUSIONS : Le suivit à long terme sur une période de dix ans, démontre que la sclérectomie profonde avec implant de collagène (SPIC) est efficace dans le contrôle de la pression intraoculaire et présente peu de complications postopératoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La diminution de la biodiversité, à toutes les échelles spatiales et sur l'ensemble de la planète, compte parmi les problèmes les plus préoccupants de notre époque. En terme de conservation, il est aujourd'hui primordial de mieux comprendre les mécanismes qui créent et maintiennent la biodiversité dans les écosystèmes naturels ou anthropiques. La présente étude a pour principal objectif d'améliorer notre compréhension des patrons de biodiversité végétale et des mécanismes sous jacents, dans un écosystème complexe, riche en espèces et à forte valeur patrimoniale, les pâturages boisés jurassiens. Structure et échelle spatiales sont progressivement reconnues comme des dimensions incontournables dans l'étude des patrons de biodiversité. De plus, ces deux éléments jouent un rôle central dans plusieurs théories écologiques. Toutefois, peu d'hypothèses issues de simulations ou d'études théoriques concernant le lien entre structure spatiale du paysage et biodiversité ont été testées de façon empirique. De même, l'influence des différentes composantes de l'échelle spatiale sur les patrons de biodiversité est méconnue. Cette étude vise donc à tester quelques-unes de ces hypothèses et à explorer les patrons spatiaux de biodiversité dans un contexte multi-échelle, pour différentes mesures de biodiversité (richesse et composition en espèces) à l'aide de données de terrain. Ces données ont été collectées selon un plan d'échantillonnage hiérarchique. Dans un premier temps, nous avons testé l'hypothèse élémentaire selon laquelle la richesse spécifique (le nombre d'espèces sur une surface donnée) est liée à l'hétérogénéité environnementale quelque soit l'échelle. Nous avons décomposé l'hétérogénéité environnementale en deux parties, la variabilité des conditions environnementales et sa configuration spatiale. Nous avons montré que, en général, la richesse spécifique augmentait avec l'hétérogénéité de l'environnement : elle augmentait avec le nombre de types d'habitats et diminuait avec l'agrégation spatiale de ces habitats. Ces effets ont été observés à toutes les échelles mais leur nature variait en fonction de l'échelle, suggérant une modification des mécanismes. Dans un deuxième temps, la structure spatiale de la composition en espèces a été décomposée en relation avec 20 variables environnementales et 11 traits d'espèces. Nous avons utilisé la technique de partition de la variation et un descripteur spatial, récemment développé, donnant accès à une large gamme d'échelles spatiales. Nos résultats ont montré que la structure spatiale de la composition en espèces végétales était principalement liée à la topographie, aux échelles les plus grossières, et à la disponibilité en lumière, aux échelles les plus fines. La fraction non-environnementale de la variation spatiale de la composition spécifique avait une relation complexe avec plusieurs traits d'espèces suggérant un lien avec des processus biologiques tels que la dispersion, dépendant de l'échelle spatiale. Dans un dernier temps, nous avons testé, à plusieurs échelles spatiales, les relations entre trois composantes de la biodiversité : la richesse spécifique totale d'un échantillon (diversité gamma), la richesse spécifique moyenne (diversité alpha), mesurée sur des sous-échantillons, et les différences de composition spécifique entre les sous-échantillons (diversité beta). Les relations deux à deux entre les diversités alpha, beta et gamma ne suivaient pas les relations attendues, tout du moins à certaines échelles spatiales. Plusieurs de ces relations étaient fortement dépendantes de l'échelle. Nos résultats ont mis en évidence l'importance du rapport d'échelle (rapport entre la taille de l'échantillon et du sous-échantillon) lors de l'étude des patrons spatiaux de biodiversité. Ainsi, cette étude offre un nouvel aperçu des patrons spatiaux de biodiversité végétale et des mécanismes potentiels permettant la coexistence des espèces. Nos résultats suggèrent que les patrons de biodiversité ne peuvent être expliqués par une seule théorie, mais plutôt par une combinaison de théories. Ils ont également mis en évidence le rôle essentiel joué par la structure spatiale dans la détermination de la biodiversité, quelque soit le composant de la biodiversité considéré. Enfin, cette étude souligne l'importance de prendre en compte plusieurs échelles spatiales et différents constituants de l'échelle spatiale pour toute étude relative à la diversité spécifique. Abstract The world-wide loss of biodiversity at all scales has become a matter of urgent concern, and improving our understanding of local drivers of biodiversity in natural and anthropogenic ecosystems is now crucial for conservation. The main objective of this study was to further our comprehension of the driving forces controlling biodiversity patterns in a complex and diverse ecosystem of high conservation value, wooded pastures. Spatial pattern and scale are central to several ecological theories, and it is increasingly recognized that they must be taken -into consideration when studying biodiversity patterns. However, few hypotheses developed from simulations or theoretical studies have been tested using field data, and the evolution of biodiversity patterns with different scale components remains largely unknown. We test several such hypotheses and explore spatial patterns of biodiversity in a multi-scale context and using different measures of biodiversity (species richness and composition), with field data. Data were collected using a hierarchical sampling design. We first tested the simple hypothesis that species richness, the number of species in a given area, is related to environmental heterogeneity at all scales. We decomposed environmental heterogeneity into two parts: the variability of environmental conditions and its spatial configuration. We showed that species richness generally increased with environmental heterogeneity: species richness increased with increasing number of habitat types and with decreasing spatial aggregation of those habitats. Effects occurred at all scales but the nature of the effect changed with scale, suggesting a change in underlying mechanisms. We then decomposed the spatial structure of species composition in relation to environmental variables and species traits using variation partitioning and a recently developed spatial descriptor, allowing us to capture a wide range of spatial scales. We showed that the spatial structure of plant species composition was related to topography at the coarsest scales and insolation at finer scales. The non-environmental fraction of the spatial variation in species composition had a complex relationship with several species traits, suggesting a scale-dependent link to biological processes, particularly dispersal. Finally, we tested, at different spatial scales, the relationships between different components of biodiversity: total sample species richness (gamma diversity), mean species .richness (alpha diversity), measured in nested subsamples, and differences in species composition between subsamples (beta diversity). The pairwise relationships between alpha, beta and gamma diversity did not follow the expected patterns, at least at certain scales. Our result indicated a strong scale-dependency of several relationships, and highlighted the importance of the scale ratio when studying biodiversity patterns. Thus, our results bring new insights on the spatial patterns of biodiversity and the possible mechanisms allowing species coexistence. They suggest that biodiversity patterns cannot be explained by any single theory proposed in the literature, but a combination of theories is sufficient. Spatial structure plays a crucial role for all components of biodiversity. Results emphasize the importance of considering multiple spatial scales and multiple scale components when studying species diversity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

mesurer les positionnements politiques des candidats lors des élections, ce qui permet par la suite de déterminer les différences entre les partis politiques en termes de positionnements dans l'espace politique. Lors des élections au Conseil national de 2007, 85% d'environ 3000 candidats à l'élection au Conseil national ont répondu à 63 questions portant sur différents sujets politiques. Ces réponses ont été collectées et sont donc disponibles pour l'analyse. Ces données nous montrent que des différences considérables concernant de nombreuses questions existent toujours entre les candidats des différents partis. Les différences les plus faibles en termes de positionnements politiques ont été recensées entre le PS et les Verts, ainsi qu'entre les deux grands partis historiquement antagonistes, le PDC et le PRD. L'homogénéité interne des Verts et du PS est plus forte que celle du PRD et du PDC. Parmi les partis bourgeois, les candidats de l'UDC reflète une homogénéité interne plus forte que celle du PRD ou du PDC. Les candidats de l'UDC, du PS, du PRD et du PDC qui sont issus de la Suisse romande et du Tessin se positionnent plus volontiers à l'aile gauche de leur parti, la tendance vers un positionnement encore plus marqué à gauche ayant été constatée chez les candidats tessinois du PRD, du PDC et de l'UDC. A l'inverse, les candidats verts issus de la Suisse allemande ont en moyenne un positionnement politique plus marqué à gauche que leurs collègues romands et tessinois. Il en va autrement pour les positionnements politiques sur l'axe libéral-conservateur. Les candidats suisses allemands sont plus libéraux que leurs homologues romands et tessinois. Il ressort des réponses des candidats aux questions posées par smartvote que des différences de contenu en termes de positionnements politiques existent de manière suffisante, au moins entre les quatre grands partis siégeant au Conseil fédéral (PDC, PRD, PS, UDC), pour justifier un système comportant un nombre aussi élevé de partis. Savoir si ces différences en termes de positionnements politiques correspondent aux besoins des électeurs est une autre question.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les bénéfices d'une antibiothérapie simplifiée sont une meilleure compilance, une diminution des coûts et une diminution de la résistance. Plusieurs molécules récentes sont efficaces pour le traitement court (5 jours) de l'angine streptococcique, de l'otite et de la sinusite. Leur avantage est leur biodisponibilité ; leur inconvénient un spectre élargi. Le spectre élargi bénéficie au thérapeute et la santé publique ; il limite les procédures diagnostiques et les échecs thérapeutiques. Les victimes en sont les patients et aussi la santé publique, par l'augmentation des effets secondaires et de la résistance aux antibiotiques. Le diagnostic bactérien permet de cibler l'antibiotique et de raccourcir le traitement. Les outils de diagnostic rapide sont essentiels à cette stratégie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les précipitations journalières extrêmes ont été estimées pour un temps de retour de 500 ans à partir d'analyses de Gumbel effectuées sur des séries de mesures pluviométriques à 429 endroits de la Suisse pour la période 1961-2010. Ces estimations aboutissent à de bons résultats pour la plupart des stations dans ce pays. Les précipitations cincentennales ainsi déterminées sont en moyenne 15% plus élevées que celles obtenues à partir d'analyses semblables faites sur des séries de mesures pour la période 1901-1970. Ceci confirme que les précipitations extrêmes tendent à augmenter durant le 20ème siècle en Suisse comme ailleurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De manière générale, l'autonomie des établissements de formation influence positivement la performance scolaire. Une enquête réalisée en Suisse romande auprès de 219 cadres scolaires permet, dans la présente contribution, de mesurer l'écart existant entre le degré d'autonomie souhaitée par les cadres scolaires d'une part et le degré d'autonomie dont ils disent disposer d'autre part. Le traitement descriptif des données de l'enquête démontre que, dans tous les domaines de gestion, les cadres scolaires souhaitent disposer de plus d'autonomie qu'ils n'en perçoivent. Ce constat est valable dans tous les cantons, tous les degrés du système éducatif et toutes les fonctions. Le degré d'autonomie souhaitée ne varie que peu selon les cantons, les degrés ou les fonctions. Sur cette base, il n'est pas possible de conclure à la nécessité ou à la pertinence d'un degré d'autonomie différenciée selon les cantons, les degrés ou les fonctions. Le traitement analytique des données de l'enquête identifie les facteurs expliquant l'écart entre les degrés d'autonomie souhaitée et perçue. Cet écart est plus élevé que la moyenne dans les cantons de Fribourg et de Genève, dans le degré primaire et dans la fonction de directeur. En d'autres termes, l'adéquation entre les degrés d'autonomie souhaitée et perçue est moins bonne dans ces cantons, ce degré et cette fonction. Un rattrapage en matière de délégation d'autonomie est dès lors possible. La reconnaissance, à l'intérieur de l'établissement, d'une faculté de conduite et de pilotage à la direction exerce un effet positif sur le degré d'autonomie souhaitée et un effet positif plus important encore sur le degré perçu. Par conséquent, il apparaît qu'une direction dont la faculté de conduite est avérée souhaite non seulement disposer de plus d'autonomie mais parvienne à obtenir (ou à « gagner ») plus d'autonomie. School autonomy has a positive influence on pupils' performance. This article presents the results of a survey conducted in the French-speaking part of Switzerland on 219 school leaders. The objective of the survey is to measure and to explain the gap between the level of autonomy desired by school leaders, and the level of autonomy that they perceive. Descriptive statistics show that, in every single management area, school leaders wish to have more autonomy than they actually have. This result is valid in all cantons, all levels of the education system and all types of job. The desired level of autonomy varies only slightly depending on the cantons, the levels of the education system and the types of job. On this basis, it is not possible to conclude that it is necessary and relevant to differentiate the level of autonomy depending on the cantons, the levels of the education system and the types of job. Analytical statistics identify the explanatory variables of the gap between the desired level of autonomy and the perceived level of autonomy. This gap is higher than average in the cantons of Fribourg and Geneva, in the primary level of education and in the position of head-teacher. In other words, the adequacy between the desired and the perceived levels of autonomy is worse in these cantons, this level and this position. As a result, a catch-up on the delegation of school autonomy is possible. Results also show that school leaders, whose management competence is recognized by its staff, not only want more autonomy but succeed in securing (or "gaining") more autonomy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: La troponine est un marqueur biologique bien reconnupour sa cardiospécificité et la détection précoce de la nécrosemyocardique. Le dosage de la troponine fait partie de la stratificationdu syndrome coronarien aigu (SCA) et est fréquemment utilisé dans lebilan initial lors de douleurs thoraciques. Cependant, d'autrespathologies sont également associées à une élévation de la troponine.Le but de ce travail est de décrire les diagnostics retenus chez despatients admis aux urgences avec une douleur thoracique et uneélévation de la troponine.Méthode: Durant une période de 18 mois (de novembre 2008 à mai2010), 1242 patients admis aux urgences avec une douleur thoraciqueont eu un dosage de la troponine positive (>= 0,1 microg/l). Undiagnostic de SCA a été posé chez 709 patients (57%). Chez les533 autres patients (43%) un autre diagnostic a été retenu.Résultats: Les 533 patients (295 hommes, âge moyen 71 ± 19 anset 238 femmes, 77 ±16 ans) présentaient une valeur de troponinemoyenne (TM) à 1,12 ± 4 microg/l. Parmi ce collectif, 192 patients(36%) avaient un diagnostic d'insuffisance cardiaque (TM 1,18microg/l), 118 patients (22%) un diagnostic autre (anémie, AVC, chutesans traumatisme) (TM 1,65 microg/l), 46 patients (8%) présentaientune pneumonie (TM 0,95 microg /l), 45 patients (8%) une arythmiecardiaque sans signes de décompensation cardiaque (TM 0,42 microg/l), 35 patients (6,5%) un traumatisme (TM 0,52 microg /l), 25 patients(4,7%) une insuffisance rénale sévère (TM 0,74 microg /l), 23 patients(4%) une insuffisance respiratoire (BPCO, fibrose pulmonaire, autrespneumopathies) (TM 1,63 microg /l), 23 patients (4,3%) un contexteinfectieux (choc septique, bactériémie) (TM 0,96 microg /l), 18 patients(3%) une embolie pulmonaire (TM 0,30 microg /l) et 8 patients (1,5%)un Takotsubo ou angor de prinzmétal (TM 1,73 microg /l).A signaler que la TM pour les 709 patients présentant un diagnostic deSCA était de 3,61 microg /l.Conclusion: Ce travail montre que près de 50% des patients arrivantaux urgences avec une douleur thoracique et une troponine positive ontun diagnostic autre qu'un SCA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consommation actuelle de sel (chlorure de sodium) est très supérieure aux besoins physiologiques (1,5 g par jour, soit environ 550 mg par jour de sodium) dans la plupart des pays (> 8 g par jour). Les principales sources de sel sont les pains, les fromages, les produits dérivés de la viande et les plats précuisinés. En moyenne, une consommation élevée de sel est associée à une pression artérielle plus élevée. En Suisse, un adulte sur trois souffre d'hypertension artérielle. La moitié des accidents vasculaires cérébraux et des maladies cardiaques ischémiques sont attribuables à une pression artérielle trop élevée. L'Office fédéral de la santé publique conduit actuellement une stratégie visant à diminuer la consommation de sel dans la population suisse à moins de 5 g par jour sur le long terme (Salz Strategie 2008-2012). [Abstract] Current dietary salt (sodium chloride) intake largely exceeds physiological needs (about 1.5 g salt per day, or 550 mg sodium per day) in most countries (> 8 g salt per day). The main sources of dietar salt intake are breads, cheeses, products derived from meat and ready-to-eat meals. On average, a high-salt diet is associated with higher blood pressure levels. In Switzerland, one out of three adults suffers from arterial hypertension. Half of cerebrovascular events and ischaemic cardiac events are attributable to elevated blood pressure. The Swiss Federal Office of Public Health is currently running a strategy aiming at reducing dietary salt intake in the Swiss population to less than 5 g per day on the long run (Salz Strategie 2008-2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D'une certaine manière, la rhétorique est un art cognitif. L'art de discourir en situation concrète dans l'espoir de faire adhérer l'auditoire à une thèse suppose une forte aptitude cognitive: celle de se représenter la façon dont l'auditoire lui-même se représente une situation rhétorique. Or, à partir du moment où agir sur les représentations d'autrui est facilité par des techniques rhétoriques ou sophistiques, la question de la tromperie verbale s'est immiscée dans des affaires de régulation sociale et, avec elle, des enjeux tant de crédibilité que de crédulité. Dans le cadre démocratique rendant encore plus aiguë une forme de dépendance à l'information d'autrui, la nécessité de croire tout comme la possibilité d'être leurré mettent à l'épreuve tant le fonctionnement social de la Cité que l'évaluation des informations et de leurs auteurs. Le but des contributions de cet ouvrage n'est pas de dénoncer les effets de certains schèmes argumentatifs que d'aucuns jugeraient fallacieux ni d'ajouter une couche nouvelle aux critiques des sophismes, mais d'étudier leur fonctionnement et leurs effets cognitifs hic et nunc. Quels sont les mécanismes langagiers et cognitifs qui expliquent la «performance» des arguments réputés fallacieux? Comment fonctionnent les stratégies rhétoriques à l'intersection entre cognition, sciences du langage et société? Cet ouvrage, issu du colloque Communication et Cognition: manipulation, persuasion et biais dans le langage, tenu à Neuchâtel du 26 au 28 janvier 2011, propose plusieurs propositions originales ou hypothèses stimulantes dans l'espoir qu'elles inspireront tant les chercheurs spécialisés en rhétorique et sciences du langage à aller voir du côté de la psychologie cognitive que les spécialistes de ce domaine à mettre en évidence la rhétoricité de leurs recherches. English version: In a way, rhetoric is a cognitive art. The art of speaking in concrete situations in the hope of gaining the audience's consent on a given issue requires the operation of a cognitive ability: that of being able to represent the way an audience represents itself a rhetorical situation. Nonetheless, once we consider that rhetorical or sophistic techniques influence people's representations, verbal deception becomes a matter of social regulation, together with issues of credibility and credulity. In a democratic context fostering a form of dependence towards other people's information, the necessity of believing everything and the possibility of being duped are challenges for both the social management of the City and the evaluation of information and of its sources. The contribution of the chapters of this volume is neither to be found in the condemnation of the fallacious effects of specific argument schemes nor in the addition of yet another layer to fallacy criticism, but in the study of how fallacies work, hic et nunc. What are the linguistic and cognitive mechanisms at play behind the "performance" of fallacious arguments? How do rhetorical strategies work at the interface of cognition, language science and society? This book gathers papers that were presented during the international conference Communication & Cognition: manipulation, persuasion and biases in language, held at the University of Neuchâtel in January 2011. A number of original proposals and stimulating hypotheses emerge from them: we hope that these will inspire researchers in the language sciences who specialise in rhetoric to take on board cognitive scientific insights but also researchers in cognitive science to engage with the rhetoricity of their own research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formica lugubris apparaît comme une espèce hautement polycalique dans le Jura suisse et forme des super-colonies. La super-colonie étudiée comprend environ 1200 nids répartis sur 70 hectares. L'étude détaillée de 12 hectares permet de définir 4 types de nids:les nids principaux, secondaires, saisonniers etcommençants, ainsi que trois sortes de voies de communication:les routes de liaisons permanentes visibles sur le terrain, les pistes de liaisons non-permanentes non marquées sur le terrain etles chemins d'approvisionnement permanents marqués dans le terrain. L'auteur présente la phénologie deF. lugubris qui est fortement influencée par le climat de cette région avec une période moyenne d'activité de 150 jours. D'autre part, les premières données sur le régime alimentaire (analyse des proies récoltées par les fourmis) diffèrent considérablement des données connues pour les autres espèces du groupe rufa, notamment par le nombre élevé de pucerons, d'où l'idée d'une régulation des populations de pucerons par les fourmis. Enfin l'auteur aborde le problème de la faible densité de l'avifaune en relation avec les fourmis. Il semble que le climat et les ressources alimentaires conduisent les fourmis àune nouvelle stratégie écologique qui s'exprimerait par la création de super-colonies. Formica lugubris appears as a highly polycalic species in the Swiss Jura and creates super-colonies. The super-colony studied possesses about 1200 nests on about 70 hectares. The detailed study of 12 hectares allows the discrimination of 4 types of nests:the main nests, the secondary nests, the seasonal nests andthe starting nests, as well as 3 types of ant tracks:the constant connection routes visible on the soil, thenon-constant connection tracks not marked on the soil andthe constant foraging routes marked on the soil. The author presents the phenology ofF. lugubris who is strongly influenced by the climate of the region with a mean activity period of about 150 days. On the other hand, the first results about diet (analysis of the preys collected by the ants) differ considerably from the wellknown data for the others species of the rufa group, especially by the high number of aphids, which may be inferred the notion of a regulation of aphids population by the ants. Finally the author approaches the problem of the low density of avifauna in relation to the ants. It seems that climate and food resources lead the ants toa new ecological strategy which would express itself by the creation of super-colonies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fondement L'appréciation objective du résultat des actes chirurgicaux fait partie de la démarche d'évaluation des pratiques professionnelles, notamment en chirurgie orthopédique pour le résultat des prothèses articulaires. Dans cette optique, les questionnaires « auto-administrés » par les patients offrent une solution séduisante, mais peu utilisée en France. Le questionnaire anglais Oxford Hip Score en 12 questions (OHS-12) a été sélectionné pour cette étude en raison de sa facilité d'utilisation. Hypothèse Le but de ce travail était de valider la traduction française du score d'autoévaluation Oxford-12 et d'en confronter les résultats à ceux des scores fonctionnels de références, de Harris (HHS) et de Merle d'Aubigné (PMA). Matériel et méthode À partir d'une série clinique de 242 patients candidats à une arthroplastie de hanche, une validation de la traduction en langue française de ce questionnaire a été réalisée, ainsi qu'une évaluation de sa cohérence par confrontation des données obtenues en préopératoire avec celles provenant des deux scores cliniques de référence. Résultats La traduction a été validée selon le processus de traduction inverse du français à l'anglais avec correction de toute déviation ou contresens après comparaison systématisée avec le questionnaire original anglais. La moyenne du score global OHS-12 était de 43,8 points (22 à 60 points) avec une bonne distribution de la valeur globale des trois scores comparés. La corrélation était excellente entre OHS et HHS, mais une corrélation de niveau identique entre OHS et PMA n'a été obtenue que pour l'association des paramètres douleur et fonction, après exclusion du critère mobilité relativement surreprésenté dans le score PMA. Discussion et conclusion Le recours à des questionnaires subjectifs qui apportent une appréciation personnelle du résultat de l'arthroplastie par le patient est facilement applicable à grande échelle. Ce travail permet de mettre à la disposition des chirurgiens orthopédistes français une version traduite et validée d'un score d'autoévaluation fiable et internationalement reconnu. Les résultats obtenus nous incitent à privilégier l'utilisation de ce questionnaire en complément des scores et méthodes d'évaluation classiques.