999 resultados para Amélioration de la performance
Resumo:
D'une manière générale, la confiance est un « lubrifiant » (Arrow, 1974) facilitant les relations sociales (eg Luhmann, 1968, Giddens, 1984, Zucker, 1986). D'un point de vue économique, un environnement institutionnel bénéficiant d'une confiance élevée serait corrélé avec la performance de l'économie nationale (eg Dyer and Chu, 2003). La confiance, en tant que capital social, permettrait et engendrerait des comportements altruistes et coopératifs impactant et soutenant la prospérité économique d'une communauté (Fukuyama, 1995). Dans un cadre organisationnel, la confiance engendre une communication plus ouverte et facilite l'échange d'information (eg Smith and Barclay, 1997, Currall and Judge, 1995), facilite la gestion des conflits (eg Blomqvist, 2002), l'apprentissage commun (eg Bijlsma-Frankema, 2004) ou diminue les coûts d'intégration (eg Bidault and Jarillo, 1995), par exemple.
Resumo:
L'Économie Sociale et Solidaire (ESS) représente aujourd'hui, en Europe, près de 10 % de l'emploi total et même plus dans certains pays, dont la France. Avec la crise, ce secteur prend une importance sociale, économique et politique croissante. La gestion des coopératives, mutuelles, fondations et associations est ainsi doublement interrogée en interne vis-à-vis de leurs « propriétaires » disposant de motivations particulières (socioéconomiques) et vis-à-vis de leurs communautés et territoires (relations aux partenaires publics et aux citoyens). C'est pourquoi la performance de ces organisations prend nécessairement une dimension sociale, voire sociétale. Les logiques de fonctionnement et d'action des managers de l'ESS sont, elles aussi, souvent particulières, hybrides et parfois paradoxales. Elles remettent en cause les découpages et frontières classiques du management, ainsi que les modèles de rationalité associés (public/privé, marchand/non-marchand, intérêt collectif/intérêts particuliers...). Face à une telle complexité, les principes et les outils de gestion de ces entreprises sont-ils alors spécifiques ? Ces entreprises sont-elles à l'origine d'innovations managériales et sociales particulières ? Comment concilier solidarité et efficacité dans un univers de plus en plus concurrentiel ? L'évolution marchande et financière, comme les problématiques de développement durable, interrogent également le mode de fonctionnement et l'avenir de ces organisations. L'objectif de cet ouvrage collectif, auquel ont contribué des experts du management des entreprises de l'économie sociale qui ont participé à un colloque international - soutenu par le Crédit Mutuel - sur le sujet, est d'apporter des réponses quant à la manière de renouveler les stratégies et les modèles de management, sans pour autant renier les valeurs et les principes fondamentaux de l'ESS. Il s'adresse aux étudiants et aux professionnels travaillant dans le secteur de l'économie sociale et solidaire (coopératives, mutuelles, associations et fondations) et intéressera également tous les managers et étudiants en management.
Resumo:
ABSTRACTA significant share of deliveries are performed by Cesarian section (C-section) in Europe and in many developed and developing countries. The aims of this thesis are to highlight the non medical, especially economic and financial, incentives that explain the use of C-section, as well as the medical consequences of C-section on women's health, in regard with other factors of ob¬stetrical care quality such as hospital concentration. Those diagnoses enable us to exhibit ways of improvement of obstetrical care quality in France. Our analysis focus on two countries, France and Switzerland. In the first part of the thesis, we show the influence of two non medical factors on the C-section use, namely the hospital payment system on the one hand and the obstetricians behaviour, especially their demand for leisure, on the other hand. With French data on the year 2003, we show firstly that the fee-for-service payment system of private for profit hospitals induces a higher probability of using C-section. Obstetricians play also a preeminent role in the decision to use a C-section, as the probability of a C-section rises with the number of obstetricians. We then focus on a French reform introduced in 2004, to investigate the impact of Prospective Payment System on obstetric practise. We show that the rise of C-section rate between 2003 and 2006 is mainly caused by changes in hospitals and patients features. Obstetricians practises do not vary a lot for patients with the same risk code. In the mean time however, the number of women coded with a high risk rises. This can be caused by improvements in the quality of coding, obstetricians chosing codes that match better the real health state of their patients. Yet, it can also show that obstetricians change their coding practises to justify the use of certain practises, such as C-section, with no regard to the health state of patients. Financial factors are not the only non medical fac¬tors that can influence the resort to C-section. Using Shelton Brown ΠΙ identification strategy, we focus on the potential impact of obstetricians leisure preference on the use of C-section. We use the distributions of days and hours of delivering and the types of C-section - planned or emergency C-sections - to show that the obstetricians demand for leisure has a significant impact on the resort to C-section, but only in emergency situations. The second part of the thesis deals with some ways to improve obstetric care quality. We use on the one hand swiss and french data to study the impact of C-section on the patients' probability of having an obstetric complication and on the other hand the influence of hospital concentration on the quality of obstetric care. We find the same results as former medical studies about the risks entailed by C-section on obstetric complications.These results prove women ought to be better informed of the medical consequences of C-section and that the slowing of C-section use should be a priority of public health policy. We finally focus on another way to improve obstetric care quality, that is hospital lmarket concentration. We investigate the impact of hospital concentration by integrating the Herfindahl-Hirschman index in our model, on health care quality, measured by the HCUP indicator. We find that hospital concentration has a negative impact on obstetric care quality, which undermines today's policy of hospital closings in France.JEL classification: 112; 118Keywords: Hospital; C-section; Payment System; Counterfactual Estimation; Quality of Care.RÉSUMÉUne part importante des accouchements sont réalisés par césarienne en Europe et dans de nom¬breux pays développés ou en développement. Les objectifs de cette thèse sont de mettre en évidence les déterminants non médicaux, notamment économiques et financiers, expliquant le développe¬ment de cette pratique, ainsi que ses conséquences sur la santé des femmes après Γ accouchement, en lien avec d'autres facteurs comme la concentration locale des structures hospitalières. Les résul¬tats exposés dans cette thèse éclairent les perspectives et voies d'amélioration de la qualité des soins en obstétriques.Notre analyse se concentre sur deux pays : la France et la Suisse. Dans la première partie de la thèse, nous mettons en évidence l'influence de deux déterminants non médicaux sur l'emploi de la césarienne : le système de paiement des hôpitaux d'une part, et le comportement des médecins obstétriciens d'autre part. En étudiant des données françaises de 2003, nous montrons d'abord que le financement à l'acte des établissements privés engendre une hausse de la proba¬bilité de pratiquer une césarienne. Le rôle de l'obstrétricien paraît également déterminant dans la décision d'opérer une césarienne, la probabilité d'employer cette technique augmentant avec le nombre d'obstétriciens. Nous nous intéressons ensuite à l'impact de la mise en place en 2004 du système de paiement prospectif sur l'évolution des pratiques obstétricales entre 2003 et 2006 en France. La hausse du taux de recours à la césarienne entre 2004 et 2006 peut ainsi être principa¬lement imputée aux évolutions des caractéristiques des hôpitaux et des patients, les pratiques des obstétriciens, pour un même codage de la situation du patient, variant peu. Dans le même temps cependant, les pratiques de codage des patients parles obstétriciens évoluent fortement, les femmes étant de plus en plus nombreuses à porter des codes correspondant à des situations à risques. Cette évolution peut indiquer que la qualité du codage en 2006 s'est améliorée par rapport à 2004, le codage correspondant de plus en plus à la situation réelle des patientes. H peut aussi indiquer que les pratiques de codage évoluent pour justifier un recours accru à la césarienne, sans lien avec l'état réel des patientes. Les facteurs financiers ne sont pas les seuls facteurs non médicaux à pouvoir expliquer le recours à la césarienne : nous nous intéressons, en suivant la stratégie d'identifica¬tion de Shelton Brown m, à l'impact potentiel de la demande de loisir des médecins obstétriciens sur la pratique de la césarienne. En utilisant la distribution des jours et heures d'accouchement, et en distinguant les césariennes planifiées de celles effectuées en urgence, nous constatons que la demande de loisir des obstétriciens influence significativement le recours à la césarienne, mais uni¬quement pour les interventions d'urgence. La deuxième partie de la thèse est consacrée à l'étude de la qualité des soins en obstétriques. Nous utilisons des données suisses et françaises pour analyser d'une part l'impact de la césarienne sur la survenue de complications obstétricales et d'autre part l'impact de la concentration des soins sur la qualité des soins en obstétrique. Nons confirmons les résultats antérieurs de la littérature médicale sur la dangerosité de la césarienne comme facteur de complications obstétricales. Ces conclusions montrent que les femmes ont besoin d'être informées des conséquences de la césarienne sur leur santé et que le ralentissement de l'augmentation de la pratique de la césarienne devrait être un objectif de la politique publique de santé. Nous nous in¬téressons à un autre facteur d'amélioration des soins en obstrétique, l'organisation des hôpitaux et particulièrement leur concentration. Nous estimons ainsi l'effet de la concentration sur la qualité des soins obstétriques en intégrant l'indice de Herfindahl-Hirschman dans notre modèle, la qualité des soins étant mesurée à l'aide de l'indicateur HCUP. Nous constatons que la concentration des naissances a un impact négatif sur la qualité des soins en obstétrique, résultat qui va dans le sens contraire des politiques de fermeture d'hôpitaux menées actuellement en France. JEL classification : 112 ; 118Mots-clés : Hôpital ; Césarienne ; Système de paiement ; Contrefactuels ; Qualité des soins, sur la qualité des soins en obstétrique.
Resumo:
Abstract (English)General backgroundMultisensory stimuli are easier to recognize, can improve learning and a processed faster compared to unisensory ones. As such, the ability an organism has to extract and synthesize relevant sensory inputs across multiple sensory modalities shapes his perception of and interaction with the environment. A major question in the scientific field is how the brain extracts and fuses relevant information to create a unified perceptual representation (but also how it segregates unrelated information). This fusion between the senses has been termed "multisensory integration", a notion that derives from seminal animal single-cell studies performed in the superior colliculus, a subcortical structure shown to create a multisensory output differing from the sum of its unisensory inputs. At the cortical level, integration of multisensory information is traditionally deferred to higher classical associative cortical regions within the frontal, temporal and parietal lobes, after extensive processing within the sensory-specific and segregated pathways. However, many anatomical, electrophysiological and neuroimaging findings now speak for multisensory convergence and interactions as a distributed process beginning much earlier than previously appreciated and within the initial stages of sensory processing.The work presented in this thesis is aimed at studying the neural basis and mechanisms of how the human brain combines sensory information between the senses of hearing and touch. Early latency non-linear auditory-somatosensory neural response interactions have been repeatedly observed in humans and non-human primates. Whether these early, low-level interactions are directly influencing behavioral outcomes remains an open question as they have been observed under diverse experimental circumstances such as anesthesia, passive stimulation, as well as speeded reaction time tasks. Under laboratory settings, it has been demonstrated that simple reaction times to auditory-somatosensory stimuli are facilitated over their unisensory counterparts both when delivered to the same spatial location or not, suggesting that audi- tory-somatosensory integration must occur in cerebral regions with large-scale spatial representations. However experiments that required the spatial processing of the stimuli have observed effects limited to spatially aligned conditions or varying depending on which body part was stimulated. Whether those divergences stem from task requirements and/or the need for spatial processing has not been firmly established.Hypotheses and experimental resultsIn a first study, we hypothesized that auditory-somatosensory early non-linear multisensory neural response interactions are relevant to behavior. Performing a median split according to reaction time of a subset of behavioral and electroencephalographic data, we found that the earliest non-linear multisensory interactions measured within the EEG signal (i.e. between 40-83ms post-stimulus onset) were specific to fast reaction times indicating a direct correlation of early neural response interactions and behavior.In a second study, we hypothesized that the relevance of spatial information for task performance has an impact on behavioral measures of auditory-somatosensory integration. Across two psychophysical experiments we show that facilitated detection occurs even when attending to spatial information, with no modulation according to spatial alignment of the stimuli. On the other hand, discrimination performance with probes, quantified using sensitivity (d'), is impaired following multisensory trials in general and significantly more so following misaligned multisensory trials.In a third study, we hypothesized that behavioral improvements might vary depending which body part is stimulated. Preliminary results suggest a possible dissociation between behavioral improvements andERPs. RTs to multisensory stimuli were modulated by space only in the case when somatosensory stimuli were delivered to the neck whereas multisensory ERPs were modulated by spatial alignment for both types of somatosensory stimuli.ConclusionThis thesis provides insight into the functional role played by early, low-level multisensory interac-tions. Combining psychophysics and electrical neuroimaging techniques we demonstrate the behavioral re-levance of early and low-level interactions in the normal human system. Moreover, we show that these early interactions are hermetic to top-down influences on spatial processing suggesting their occurrence within cerebral regions having access to large-scale spatial representations. We finally highlight specific interactions between auditory space and somatosensory stimulation on different body parts. Gaining an in-depth understanding of how multisensory integration normally operates is of central importance as it will ultimately permit us to consider how the impaired brain could benefit from rehabilitation with multisensory stimula-Abstract (French)Background théoriqueDes stimuli multisensoriels sont plus faciles à reconnaître, peuvent améliorer l'apprentissage et sont traités plus rapidement comparé à des stimuli unisensoriels. Ainsi, la capacité qu'un organisme possède à extraire et à synthétiser avec ses différentes modalités sensorielles des inputs sensoriels pertinents, façonne sa perception et son interaction avec l'environnement. Une question majeure dans le domaine scientifique est comment le cerveau parvient à extraire et à fusionner des stimuli pour créer une représentation percep- tuelle cohérente (mais aussi comment il isole les stimuli sans rapport). Cette fusion entre les sens est appelée "intégration multisensorielle", une notion qui provient de travaux effectués dans le colliculus supérieur chez l'animal, une structure sous-corticale possédant des neurones produisant une sortie multisensorielle différant de la somme des entrées unisensorielles. Traditionnellement, l'intégration d'informations multisen- sorielles au niveau cortical est considérée comme se produisant tardivement dans les aires associatives supérieures dans les lobes frontaux, temporaux et pariétaux, suite à un traitement extensif au sein de régions unisensorielles primaires. Cependant, plusieurs découvertes anatomiques, électrophysiologiques et de neuroimageries remettent en question ce postulat, suggérant l'existence d'une convergence et d'interactions multisensorielles précoces.Les travaux présentés dans cette thèse sont destinés à mieux comprendre les bases neuronales et les mécanismes impliqués dans la combinaison d'informations sensorielles entre les sens de l'audition et du toucher chez l'homme. Des interactions neuronales non-linéaires précoces audio-somatosensorielles ont été observées à maintes reprises chez l'homme et le singe dans des circonstances aussi variées que sous anes- thésie, avec stimulation passive, et lors de tâches nécessitant un comportement (une détection simple de stimuli, par exemple). Ainsi, le rôle fonctionnel joué par ces interactions à une étape du traitement de l'information si précoce demeure une question ouverte. Il a également été démontré que les temps de réaction en réponse à des stimuli audio-somatosensoriels sont facilités par rapport à leurs homologues unisensoriels indépendamment de leur position spatiale. Ce résultat suggère que l'intégration audio- somatosensorielle se produit dans des régions cérébrales possédant des représentations spatiales à large échelle. Cependant, des expériences qui ont exigé un traitement spatial des stimuli ont produits des effets limités à des conditions où les stimuli multisensoriels étaient, alignés dans l'espace ou encore comme pouvant varier selon la partie de corps stimulée. Il n'a pas été établi à ce jour si ces divergences pourraient être dues aux contraintes liées à la tâche et/ou à la nécessité d'un traitement de l'information spatiale.Hypothèse et résultats expérimentauxDans une première étude, nous avons émis l'hypothèse que les interactions audio- somatosensorielles précoces sont pertinentes pour le comportement. En effectuant un partage des temps de réaction par rapport à la médiane d'un sous-ensemble de données comportementales et électroencépha- lographiques, nous avons constaté que les interactions multisensorielles qui se produisent à des latences précoces (entre 40-83ms) sont spécifique aux temps de réaction rapides indiquant une corrélation directe entre ces interactions neuronales précoces et le comportement.Dans une deuxième étude, nous avons émis l'hypothèse que si l'information spatiale devient perti-nente pour la tâche, elle pourrait exercer une influence sur des mesures comportementales de l'intégration audio-somatosensorielles. Dans deux expériences psychophysiques, nous montrons que même si les participants prêtent attention à l'information spatiale, une facilitation de la détection se produit et ce toujours indépendamment de la configuration spatiale des stimuli. Cependant, la performance de discrimination, quantifiée à l'aide d'un index de sensibilité (d') est altérée suite aux essais multisensoriels en général et de manière plus significative pour les essais multisensoriels non-alignés dans l'espace.Dans une troisième étude, nous avons émis l'hypothèse que des améliorations comportementales pourraient différer selon la partie du corps qui est stimulée (la main vs. la nuque). Des résultats préliminaires suggèrent une dissociation possible entre une facilitation comportementale et les potentiels évoqués. Les temps de réactions étaient influencés par la configuration spatiale uniquement dans le cas ou les stimuli somatosensoriels étaient sur la nuque alors que les potentiels évoqués étaient modulés par l'alignement spatial pour les deux types de stimuli somatosensorielles.ConclusionCette thèse apporte des éléments nouveaux concernant le rôle fonctionnel joué par les interactions multisensorielles précoces de bas niveau. En combinant la psychophysique et la neuroimagerie électrique, nous démontrons la pertinence comportementale des ces interactions dans le système humain normal. Par ailleurs, nous montrons que ces interactions précoces sont hermétiques aux influences dites «top-down» sur le traitement spatial suggérant leur occurrence dans des régions cérébrales ayant accès à des représentations spatiales de grande échelle. Nous soulignons enfin des interactions spécifiques entre l'espace auditif et la stimulation somatosensorielle sur différentes parties du corps. Approfondir la connaissance concernant les bases neuronales et les mécanismes impliqués dans l'intégration multisensorielle dans le système normale est d'une importance centrale car elle permettra d'examiner et de mieux comprendre comment le cerveau déficient pourrait bénéficier d'une réhabilitation avec la stimulation multisensorielle.
Resumo:
La dépression majeure est fréquente chez les patients qui consultent un cabinet de médecine générale. Elle reste toutefois difficile à diagnostiquer car elle est souvent masquée par une ou plusieurs plaintes physiques qui sont l'unique motif de consultation. Pour aider le médecin généraliste à démasquer ce trouble, un test de dépistage composé de deux questions a été développé et validé. Ce test indique une probabilité accrue de dépression si le patient répond positivement à au moins une des deux questions suivantes : « Est-ce que, durant le mois qui a précédé, vous vous êtes senti(e) triste, déprimé(e), désespéré(e) ? » et « Durant le mois qui a précédé, avez-vous ressenti un manque d'intérêt et de plaisir dans la plupart des activités que d'habitude vous appréciez ? ». Une troisième question, ajoutée aux deux questions ci-dessus, a été proposée récemment afin d'améliorer les performances de ce test de dépistage. Cette troisième question rend le test négatif si le patient répond négativement à la question suivante : « Souhaitez-vous de l'aide pour cela ? ». Une étude avait indiqué que l'ajout de la question supplémentaire améliorait la spécificité du test sans réduire sa sensibilité. Objectifs Il s'agissait de décrire la performance de deux tests de dépistage de la dépression majeure, composés, respectivement, de deux et de trois questions, dans une population de patients consultant dans un cabinet de médecine générale pour une plainte physique, et de les valider. Méthode Les réponses aux questions des tests de dépistage de la dépression dans la population de la cohorte SODA (Somatisation, Depression, Anxiety) ont été utilisées. Il s'agissait de patients de plus de 18 ans, sélectionnés aléatoirement, consultant pour au moins une plainte physique auprès de 24 médecins généralistes de Suisse Romande, réexaminés une année après l'inclusion dans la cohorte. Le questionnaire validé « Full Patient Health Questionnaire » a été utilisé, le même jour, pour diagnostiquer une dépression majeure. Ce résultat a été utilisé pour évaluer les performances des deux tests de dépistage en calculant la sensibilité et la spécificité, notamment. Résultats Les données de 724 / 937 patients inclus ont pu être utilisées. Un diagnostic de dépression majeure a été posé chez 9.5% des patients (n = 69). La sensibilité et la spécificité des deux questions de dépistage étaient de 91.3% (IC95% : 81.4-96.4%) et 65.0% (IC95% : 61.2-68.6%), respectivement. En ajoutant la troisième question, la sensibilité des deux questions de dépistage a diminué à 59.4% (IC95% : 47.0-70.9%) et la spécificité a augmenté à 88.2% (IC95% : 85.4-90.5%). Conclusions L'utilisation des deux questions pour le dépistage de la dépression majeure est associée à une haute sensibilité et à une basse spécificité chez des patients se présentant en cabinet de médecine générale pour une plainte physique. En ajoutant la troisième question, la spécificité augmente, mais la sensibilité diminue. Ainsi, en ajoutant la troisième question, quatre patients dépressifs majeurs sur dix ne sont pas détectés, alors que seulement un patient sur dix n'est pas détecté avec les deux questions de dépistage. Notre étude montre que le test composé de deux questions reste une méthode de choix pour le dépistage de la dépression majeure et que l'ajout de la troisième question n'est pas recommandée. Celle-ci reste toutefois pertinente dans l'incitation au dialogue sur le sujet de la dépression entre le médecin et son patient.
Resumo:
Contexte¦- Les métastases hépatiques hypovasculaires sont parfois difficile à détecter car très polymorphiques et fréquemment irrégulières. Leurs contrastes sur CT scan hépatique sont souvent faibles.¦- Lors d'un diagnostic, le radiologue ne fixe pas sa vision fovéale sur chaque pixel de l'image. Les expériences de psychophysique avec eye-tracker montrent en effet que le radiologue se concentre sur quelques points spécifiques de l'image appelés fixations. Dans ce travail, nous nous intéresserons aux capacités de détection de l'oeil lorsque l'observateur effectue une saccade entre deux points de fixation. Plus particulièrement, nous nous intéresserons à caractériser les capacités de l'oeil à détecter les signaux se trouvant en dehors de sa vision fovéale, dans ce qu'on appelle, la vision périphérique.¦Objectifs¦- Caractériser l'effet de l'excentricité de la vision sur la détectabilité des contrastes dans le cas de métastases hépatiques hypovasculaires.¦- Récolter des données expérimentales en vue de créer un modèle mathématique qui permettra, à terme, de qualifier le système d'imagerie.¦- → objectifs du TM en soit :¦o prendre en main l'eyetracker¦o traduire une problématique médicale en une expérience scientifique reproductible, quantifiable et qualifiable.¦Méthode¦Nous effectuons une expérience 2AFC (2 Alternative Forced-Choice experiment) afin d'estimer la détectabilité du signal. Pour cela, nous forcerons l'observateur à maintenir son point de fixation à un endroit défini et vérifié par l'eye-tracker. La position del'excentricité du signal tumoral généré sur une coupe de CT hépatique sera le paramètre varié. L'observateur se verra présenté tour à tour deux coupes de CT hépatique, l'une comportant le signal tumoral standardisé et l'autre ne comportant pas le signal. L'observateur devra déterminer quelle image contient la pathologie avec la plus grande probabilité.¦- Cette expérience est un modèle simplifié de la réalité. En effet, le radiologue ne fixe pas un seul point lors de sa recherche mais effectue un "scanpath". Une seconde expérience, dite en free search sera effectuée dans la mesure du temps à disposition. Lors de cette expérience, le signal standardisé sera connu de l'observateur et il n'y aura plus de point de fixation forcée. L'eyetracker suivra le scanpath effectué par l'oeil de l'observateur lors de la recherche du signal sur une coupe de CT scan hépatique. L'intérêt de cette expérience réside dans l'observation de la corrélation entre les saccades et la découverte du signal. Elle permet aussi de vérifier les résultats obtenus lors de la première expérience.¦Résultats escomptés¦- Exp1 : Quantifier l'importance de l'excentricité en radiologie et aider à améliorer la performance de recherche.¦- Exp 2 : tester la validité des résultats obtenus par la première expérience.¦Plus value escomptée¦- Récolte de données pour créer un modèle mathématique capable de déterminer la qualité de l'image radiologique.¦- Possibilité d'extension à la recherche dans les trois dimensions du CT scan hépatique.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
Prenent com a referència les aportacions de diversos estudis i codificacions que han tractat sobre la performance i el teatre com a acte polític i manera d'intervenció cultural, sense perdre de vista possibles generadors d'acció com la fantasia i la memòria creadora, analitzarem una manera concreta de fer teatre que es va donar a Barcelona entre els anys 1965 i 1973: el teatre de guerrilles, més concretament, el teatre de guerrilles de Jordi Dodero. Des de el seu context context, social i teatral, i amb aquest marc teòric de referència, atenent a la forma d'organització i de relació donarem compte d'una hipotètica possibilitat del teatre practicada a Barcelona durant els últims anys del franquisme en el si d'una forta convulsió social: el teatre com a vehicle de trobada.
Resumo:
Résumé La performance diagnostic des signes et symptômes de la grippe a principalement été étudiée dans le cadre d'études contrôlées avec des critères d'inclusion stricts. Il apparaît nécessaire d'évaluer ces prédicteurs dans le cadre d'une consultation ambulatoire habituelle en tenant compte du délai écoulé entre le début des symptômes et la première consultation ainsi que la situation épidémiologique. Cette étude prospective a été menée à la Policlinique Médicale Universitaire durant l'hiver 1999-2000. Les patients étaient inclus s'ils présentaient un syndrome grippal et si le praticien suspectait une infection à Influenza. Le médecin administrait un questionnaire puis une culture d'un frottis de gorge était réalisée afin de documenter l'infection. 201 patients ont été inclus dans l'étude. 52% avaient une culture positive pour Influenza. En analyse univariée, une température > 37.8° (OR 4.2; 95% CI 2.3-7.7), une durée des symptômes < 48h (OR 3.2; 1.8-5.7), une toux (OR 3.2; 1-10.4) et des myalgies (OR 2.8; 1.0-7.5) étaient associés au diagnostic de grippe. En analyse de régression logistique, le modèle le plus performant qui prédisait la grippe était l'association d'une durée des symptômes <48h, une consultation en début d'épidémie, une température > 37.8° et une toux (sensibilité 79%, spécificité 69%, valeur prédictive positive 67%, une valeur prédictive négative de 73% et aire sous la courbe (ROC) de 0.74). En plus des signes et symptômes prédicteurs de la grippe, le médecin de premier recours devrait prendre en compte dans son jugement la durée des symptômes avant la première consultation et le contexte épidémiologique (début, pic, fin de l'épidémie), car ces deux paramètres modifient considérablement la valeurs des prédicteurs lors de l'évaluation de la probabilité clinique d'un patient d'avoir une infection à Influenza.
Resumo:
L'article publié de le cadre de cette thèse est intitulé "Effectiveness of interventions targeting frequent users of emergency departments: A systematic review." Il a été publié par les "Annals of Emergency Medicine (AEM)" en juillet 2011. Le titre en français pourrait être: "Efficacité des interventions ciblant les utilisateurs fréquents des services d'urgence: Une revue systématique." Le titre du journal américain pourrait être: "Annales de Médecine d'Urgence". Il s'agit du journal du "Collège Américain des Médecins d'Urgence", en anglais "American College of Emergency Physicians (ACEP)". L'article a été soumis à l'AEM en raison de l'intérêt que ses rédacteurs en chef portent pour le sujet des utilisateurs fréquents des services d'urgence, démontré depuis plus de dix ans par la publication de nombreux articles dans ce domaine. Le facteur d'impact de l'AEM est de surcroît le plus important des journaux d'urgence, assurant ainsi une large diffusion des articles publiés. Lors de sa publication, l'article a été accompagné d'un éditorial signé par le Docteur Maria C. Raven, médecin au Centre Hospitalier de Bellevue à New York, Etats-Unis.¦Contexte et enjeux¦La Direction Générale du Centre Hospitalier Vaudois (CHUV) finance, dans le cadre du plan stratégique 2009-2013, un axe "populations vulnérables". Cet axe est porté en grande partie par des projets développés au sein de la Policinlique Médicale Universitaire et l'Unité des Populations Vulnérables qui prend en charge, enseigne la prise en charge et s'interroge sur la prise en charge des personnes les plus vulnérables. C'est dans ce contexte que nous avons été amenés à réfléchir à l'existence éventuelle de marqueurs de vulnérabilité; l'utilisation fréquente des services d'urgence par certains individus constitue à n'en pas douter l'un de ces marqueurs. Il existe une importante littérature décrivant en détail ces utilisateurs fréquents des services d'urgence, raison pour laquelle nous avons décidé de faire un pas supplémentaire et de nous interroger sur l'efficacité des interventions (quelle qu'elles soient) ciblant cette population particulière. Nous avons ainsi entrepris une revue systématique de la littérature scientifique médicale et sociale pour approfondir cette question, et c'est précisément le résultat de cette recherche qui constitue ce travail de thèse.¦Conclusions et perspectives¦Les utilisateurs fréquents des services d'urgence sont des individus particulièrement vulnérables, et ce aussi bien aux Etats-Unis, qu'en Europe ou en Australie: ils présentent par exemple une mortalité supérieure aux autres utilisateurs des urgences; ils sont également plus à risque de présenter une consommation abusive d'alcool ou de drogues, une maladie mentale, ou une maladie chronique. Ils sont plus souvent sans abri, sans assurance et d'un statut socio-économique bas.¦De nombreuses interventions on été développées pour prendre en charge les utilisateurs fréquents des urgences. Le but de ces interventions est d'une part de réduire la consommation des services d'urgence et d'autre part d'améliorer la santé au sens large de ces patients vulnérables. C'est en ces termes (réduction de la fréquence d'utilisation des services d'urgence et amélioration de la santé) que l'efficacité d'une intervention est mesurée.¦Parmi l'ensemble des interventions étudiées, l'une semble particulièrement efficace pour réduire le nombre de visites aux urgences et améliorer un certain nombre de marqueurs sociaux (accès à un logement ou à une assurance-maladie). Cette intervention est appelée "case management" (ou "gestion de cas", difficile tentative de traduction de ce concept en français), et consiste en une approche multidisciplinaire (médecins, infirmiers, assistants sociaux) fournissant un service individualisé, dans le cadre de l'hôpital et souvent également dans la communauté. L'approche consiste à évaluer les besoins précis du patient, à l'accompagner dans son parcours de soin, à l'orienter si nécessaire et à mettre en place autour de lui un réseau communiquant de manière adaptée.¦Le "case management" ayant montré son efficacité dans la prise en charge des utilisateurs fréquents des services d'urgence, y-compris en termes de coûts, notre conclusion va dans le sens d'encourager les hôpitaux à évaluer l'importance de ce phénomène dans leur propre pratique et à mettre en place des équipes de prise en charge de ces patients, dans le double but de soutenir des patients particulièrement vulnérables et de réduire la consommation des services d'urgence. Suite à la réflexion suscitée par ce travail de thèse, une telle équipe a été mise en place en 2010, dans un cadre de recherche-action, au niveau du CHUV. Ce projet est dirigé par le Dr Patrick Bodenmann, responsable de l'Unité Populations Vulnérables de la Policlinique Médicale Universitaire de Lausanne. Le Dr Bodenmann est également le directeur de cette thèse et le dernier auteur de la revue systématique.
Resumo:
Dans cette étude, nous avons testé la performance diagnostique d'une nouvelle technique d'analyse multiplexée qui permet la détection d'anticorps de différentes spécificités dans la même réaction. En l'absence de gold standard, nous avons choisi de comparer la performance diagnostique de l'analyse avec deux méthodes de référance que sont l'IF et EIA, et avec un consensus déterminé selon une règle de majorité entre les trois méthodes.¦393 sérums analysés par IF, conservés par congélation, ont été décongelés pour être analysés par EIA et BBA. Pour chaque sérum, les anticorps recherchés ont été les anti-VCA (Viral Capsid Antigen) IgM, anti-VCA IgG et anti-EBNA (Epstein-Barr Nuclear Associated) IgG. Les échantillons ont été classés en cinq groupes selon les résultats de l'IF : séronégatifs, infections aiguës, infections anciennes et deux types d'indéterminés.¦Pour chaque méthode, le résultat numérique (index ou titre) des analyses est converti en termes de positif, négatif ou douteux. Pour le résultat de chaque type d'anticorps, un consensus est établi selon une règle de majorité entre les trois méthodes, permettant une interprétation du stade de l'infection. Puis l'interprétation de chacune des méthodes a été comparée au consensus. Nous avons également comparé les trois méthodes les unes aux autres concernant la détection des anticorps.¦Globalement, nous observons une bonne corrélation qualitative entre les trois approches pour détecter les anti-VCA IgG et IgM. Pour pour les anti-EBNA IgG, il y a une divergence notable entre l'IF et les deux autres méthodes, l'IF apparaissant moins sensible que les autres méthodes, résultant en un nombre accru d'interprétations indéterminées du stade de l'infection.¦L'origine de cette divergence ne peut être due à une perte d'anticorps liée au stockage de longue durée des échantillons. En effet, EIA et BBA restent plus sensibles que IF, dont l'analyse a été faite sur des sérums frais.¦Cette divergence ne semble pas non plus être due aux différents antigènes utilisés par les trois méthodes. EIA et BBA utilisent le même antigène recombinant EBNA-1, alors que l'IF utilise des "cellules lymphoïdes choisies pour leur production sélective d'antigènes EBNA". Ces cellules sont probablement des cellules infectées par EBV qui devraient exprimer plus d'antigènes de latence que seul EBNA-1. Cette différence devrait donc plutôt en principe résulter en une meilleure sensibilité de l'IF par rapport aux deux autres méthodes.¦Les anti-EBNA IgG peuvent disparaître chez les patients immunocompromis chez qui se produit une réactivation d'EBV. Nous avons donc recherché le status immunitaire des patients du groupe dont les sérums étaient négatifs pour anti-EBNA IgG en IF et positifs par les autres méthodes: seulement 28 des 70 patients étaient immunocompromis.¦Par conséquent, il est probable que dans la majorité de ces résultats discordants, les anticorps anti-EBNA IgG détectés par BBA et EIA sont de vrais positifs non décelés par l'IF.¦En conclusion, BBA est meilleur que la méthode de référance qu'est l'IF, et est égal à EIA en ce qui concerne la performance diagnostique. En outre, ces deux nouvelles méthodes offrent une économie de temps en raison de manipulations moindres, et ne requièrent aucune formation en microscopie à fluorescence. Elles sont également plus économes en échantillons que IF. BBA a l'avantage de n'avoir besoin que de deux analyses pour donner un diagnostique, alors que IF et EIA ont en besoin d'une par anticorps. Enfin, BBA dispose de contrôles internes permettant de reconnaître les liaisons non antigène-spécifiques des anticorps. Par contre, BBA nécessite l'achat d'un lecteur par cytométrie de flux assez coûteux.
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Cette thèse de doctorat propose une analyse comparative détaillée du phénomène de l'enchâssement narratif dans deux textes antiques du IIe s. apr. J.-C. : Leucippé et Clitophon d'Achille Tatius, écrit en grec ancien, et les Métamorphoses d'Apulée, en latin. Ces deux oeuvres sont rattachées par la critique moderne à un genre désigné comme le roman antique.Si le corpus est abordé de façon minutieuse, ce travail n'a pas la forme du commentaire philologique traditionnel, mais d'une nouvelle forme de commentaire, inspirée du Narratological Commentary de VOdyssée par Irene de Jong. L'analyse est sous-tendue par divers mouvements de synthèse et de comparaison ; cela est fait en recourant à diverses méthodes provenant de différents domaines de recherche : philologie grecque et latine, rhétorique antique, narratologie moderne et comparaison différentielle, telle que proposée par Ute Heidmann, qui défend une approche des textes non-hiérarchisante, focalisée autant sur les ressemblances que les dissemblances et les différences entre les textes étudiés.A la croisée de ces différents domaines de recherche, la thèse tente d'offrir de nouveaux apports. Sur le plan philologique, cette étude comparative de l'enchâssement dans deux textes antiques porte l'attention sur des voix et des récits qui étaient encore restés « in-ouïs » par la critique ; en ce sens qu'ils n'avaient pas encore été tous étudiés. Appliquant une comparaison non-hiérarchisante et différentielle, cette thèse va à l'encontre de deux opinions communes en philologie classique. Elle nuance l'idée générale d'une séparation étanche entre roman grec et roman latin, ainsi que l'idée reçue selon laquelle le dialogue entre la culture grecque et latine serait unilatéral, allant seulement du grec au latin et non pas aussi vice-versa. En ce qui concerne la critique sur l'enchâssement en philologie classique et plus concrètement dans les travaux sur le roman antique, l'apport de cette thèse peut être résumé par les termes « contextualisant » et « englobant ». Le contexte culturel de la Seconde Sophistique, mouvement fortement marqyé par la performance, l'oralité et la rhétorique, est pris en compte en prenant appui, en particulier, sur les traités d'art oratoire et les exercices de rhétorique. Si l'importance de ces derniers a été récemment reconnue et leur intérêt renouvelé par la critique, un rapprochement explicite avec le phénomène de l'enchâssement n'avait pas encore été effectué. Par ailleurs, l'étude du récit enchâssé dans deux romans antiques est ici, pour la première fois, effectuée dans son intégralité, en vue de mieux comprendre le procédé de l'enchâssement au sein des oeuvres étudiées, mais aussi en tant que phénomène à part entière.Sur le plan narratologique, la prise en considération de tous les récits enchâssés a permis de proposer l'ébauche d'une « grammaire de l'enchâssement narratif », applicable aussi à d'autres textes. Pour ce faire, le dispositif conceptuel proposé, entre autres, par Genette a été étendu et affiné. Les notions de récit et d'histoire ont également été élargies. Considérant l'histoire comme tout contenu comportant des séquences logico-temporelles, la narrativité a été étendue à tout discours portant sur cette histoire, ce qui a permis d'intégrer dans l'étude des rêves, oracles, plans, lamentations aussi bien que des actes comme les menaces, promesses, reproches, et même les énumérations et descriptions.Soulignant le dialogue entre la culture grecque et latine, la comparaison menée dans ce travail peut être qualifiée d'interculturelle et d'interdisciplinaire, en raison de l'intégration dialogique des philologies grecque et latine, de la narratologie et de la rhétorique.
Resumo:
(English Abstract) In western societies, grades are to date the most widespread means by which achievement and performance are assessed in educational contexts. Grades are used for their capacity to provide individuals with a clear indicator of success or failure, in particular in comparison to others; in this respect, we study their impact on particular work contexts requiring cooperation. Indeed, students are often exhorted to cooperate and work in groups, while at the same time assessed with grades and focused on inter-individual comparison. However, to the best of our knowledge, no work has investigated the effects of grades on cooperation and on indicators of cooperation, a central question to be addressed given its significance for educational trends encouraging cooperative practices, and which we propose to explore in the experimental parts of this thesis. The first experimental chapter, Chapter 4, investigates the effect of grades with regards to their capacity to highlight individual visibility and at the same time social comparison. It tries to disentangle which of these facets could affect a motivated bias likely to reduce cooperation, namely individuals' preference for information confirming their own choice. In two experiments, results showed that a graded-cooperative situation increased this preference effect in comparison to other conditions where only individual visibility was manipulated, and furthermore increased individuals' perception of a competitive atmosphere. Chapter 5 investigates the effect of grades on direct cooperative inter- individual interactions, namely on group information sharing. Two experiments showed that grades hindered informational communication between individuals, leading them to withhold crucial task-information. Finally, Chapter 6 investigates the effects of grades on another indicator of group cooperation, namely inter-individual coordination. Results indicated that showcasing grades at the onset of a cooperative task necessitating inter-individual coordination decreased group performance and elicited more negative dominant behaviours amongst participants. Together these results provide evidence that grades hamper group cooperation. We conclude by discussing implications for the practice of grading in Education. ------------------------------------------------------- (Résumé en langue française) Dans la plupart des pays occidentaux, les notes sont majoritairement utilisées pour évaluer la performance et rendre compte de la réussite scolaire des individus. Dans cette perspective, elles sont non seulement un indicateur de succès ou d'échec, mais aussi de la valeur comparative des individus. Dans cette thèse nous proposons de tester l'effet des notes lorsque celles-ci sont utilisées dans des contextes bien spécifiques de coopération. En effet, si les notes et la comparaison sociale sont pratique courante, les étudiants sont souvent encouragés et amenés à coopérer en groupe. Cependant, à notre connaissance, point d'études ont testé l'effet des notes sur la coopération; études qui seraient pourtant légitimes étant donné la tendance existante en milieu éducatif à encourager les pratiques coopératives. C'est précisément ce que proposent de faire les chapitres expérimentaux de cette thèse. Le premier (Chapitre 4) teste l'effet des notes au regard de leur capacité à accentuer à la fois la visibilité et la comparaison sociale. Deux expériences investiguent l'effet des notes et tentent de démêler ce qui, de la visibilité individuelle, de la comparaison sociale ou des deux, pourrait affecter un biais motivationnel qui réduit la propension à coopérer: la propension à préférer les informations qui confirment les choix de l'individu. Les résultats montrent qu'en situation coopérative, les notes accroissent ce biais comparativement à des situations où seule la visibilité individuelle est soulignée, suggérant de plus que les notes produisent une focalisation des individus sur une comparaison sociale compétitive. Le second (Chapitre 5) teste l'effet des notes sur les interactions coopératives des individus, précisément sur le partage d'information. Deux expériences montrent que dans un contexte de travail en groupe coopératif, les notes entravent le bon partage des informations entre individus, les amenant à faire de la rétention d'information. Enfin, le troisième (Chapitre 6) investigue l'effet des notes sur un autre indicateur de coopération en groupe: la coordination interindividuelle. Les résultats montrent que les notes réduisent la coordination des individus et les mènent à avoir des comportements de dominance négative entre eux. En somme, les notes entravent la coopération et réduisent les comportements coopératifs entre individus. Enfin, nous discutons des implications pour le milieu éducatif.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.