81 resultados para tâche
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
L'article se donne pour tâche d'introduire à la « pensée du politique » du philosophe français Claude Lefort, et surtout de marquer l'originalité de ce projet philosophique par rapport à la philosophie politique classique. Opposée au présupposé du réalisme normatif qui fonde la pensée classique, et basée au contraire sur la conviction que la signification est constitutive du social, la « pensée du politique » de Lefort prend la forme d'une interrogation de la diversité des formes de société. Ce biais interprétatif permet seul de retrouver une dimension normative
Resumo:
The capacity to learn to associate sensory perceptions with appropriate motor actions underlies the success of many animal species, from insects to humans. The evolutionary significance of learning has long been a subject of interest for evolutionary biologists who emphasize the bene¬fit yielded by learning under changing environmental conditions, where it is required to flexibly switch from one behavior to another. However, two unsolved questions are particularly impor¬tant for improving our knowledge of the evolutionary advantages provided by learning, and are addressed in the present work. First, because it is possible to learn the wrong behavior when a task is too complex, the learning rules and their underlying psychological characteristics that generate truly adaptive behavior must be identified with greater precision, and must be linked to the specific ecological problems faced by each species. A framework for predicting behavior from the definition of a learning rule is developed here. Learning rules capture cognitive features such as the tendency to explore, or the ability to infer rewards associated to unchosen actions. It is shown that these features interact in a non-intuitive way to generate adaptive behavior in social interactions where individuals affect each other's fitness. Such behavioral predictions are used in an evolutionary model to demonstrate that, surprisingly, simple trial-and-error learn¬ing is not always outcompeted by more computationally demanding inference-based learning, when population members interact in pairwise social interactions. A second question in the evolution of learning is its link with and relative advantage compared to other simpler forms of phenotypic plasticity. After providing a conceptual clarification on the distinction between genetically determined vs. learned responses to environmental stimuli, a new factor in the evo¬lution of learning is proposed: environmental complexity. A simple mathematical model shows that a measure of environmental complexity, the number of possible stimuli in one's environ¬ment, is critical for the evolution of learning. In conclusion, this work opens roads for modeling interactions between evolving species and their environment in order to predict how natural se¬lection shapes animals' cognitive abilities. - La capacité d'apprendre à associer des sensations perceptives à des actions motrices appropriées est sous-jacente au succès évolutif de nombreuses espèces, depuis les insectes jusqu'aux êtres hu¬mains. L'importance évolutive de l'apprentissage est depuis longtemps un sujet d'intérêt pour les biologistes de l'évolution, et ces derniers mettent l'accent sur le bénéfice de l'apprentissage lorsque les conditions environnementales sont changeantes, car dans ce cas il est nécessaire de passer de manière flexible d'un comportement à l'autre. Cependant, deux questions non résolues sont importantes afin d'améliorer notre savoir quant aux avantages évolutifs procurés par l'apprentissage. Premièrement, puisqu'il est possible d'apprendre un comportement incorrect quand une tâche est trop complexe, les règles d'apprentissage qui permettent d'atteindre un com¬portement réellement adaptatif doivent être identifiées avec une plus grande précision, et doivent être mises en relation avec les problèmes écologiques spécifiques rencontrés par chaque espèce. Un cadre théorique ayant pour but de prédire le comportement à partir de la définition d'une règle d'apprentissage est développé ici. Il est démontré que les caractéristiques cognitives, telles que la tendance à explorer ou la capacité d'inférer les récompenses liées à des actions non ex¬périmentées, interagissent de manière non-intuitive dans les interactions sociales pour produire des comportements adaptatifs. Ces prédictions comportementales sont utilisées dans un modèle évolutif afin de démontrer que, de manière surprenante, l'apprentissage simple par essai-et-erreur n'est pas toujours battu par l'apprentissage basé sur l'inférence qui est pourtant plus exigeant en puissance de calcul, lorsque les membres d'une population interagissent socialement par pair. Une deuxième question quant à l'évolution de l'apprentissage concerne son lien et son avantage relatif vis-à-vis d'autres formes plus simples de plasticité phénotypique. Après avoir clarifié la distinction entre réponses aux stimuli génétiquement déterminées ou apprises, un nouveau fac¬teur favorisant l'évolution de l'apprentissage est proposé : la complexité environnementale. Un modèle mathématique permet de montrer qu'une mesure de la complexité environnementale - le nombre de stimuli rencontrés dans l'environnement - a un rôle fondamental pour l'évolution de l'apprentissage. En conclusion, ce travail ouvre de nombreuses perspectives quant à la mo¬délisation des interactions entre les espèces en évolution et leur environnement, dans le but de comprendre comment la sélection naturelle façonne les capacités cognitives des animaux.
Resumo:
(Résumé de l'ouvrage) Ce recueil regroupe les contributions de 35 spécialistes qui reprennent l'orientation principale ayant déterminé la recherche de Gottfried Hammann, professeur d'histoire du christianisme et de l'Eglise à la Faculté de théologie de l'Université de Neuchâtel. Les deux notions d'histoire et d'herméneutique indiquent les piliers sur lesquels repose l'arc historiographique contemporain, cette ligne courbe qui se dessine entre le passé et sa reconstitution. L'historien est appelé à réfléchir soigneusement à sa double tâche de documentaliste et d'interprète.
Resumo:
(Résumé de l'ouvrage) Ce recueil regroupe les contributions de 35 spécialistes qui reprennent l'orientation principale ayant déterminé la recherche de Gottfried Hammann, professeur d'histoire du christianisme et de l'Eglise à la Faculté de théologie de l'Université de Neuchâtel. Les deux notions d'histoire et d'herméneutique indiquent les piliers sur lesquels repose l'arc historiographique contemporain, cette ligne courbe qui se dessine entre le passé et sa reconstitution. L'historien est appelé à réfléchir soigneusement à sa double tâche de documentaliste et d'interprète.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Les acteurs du système judiciaire prennent des décisions à des niveaux différents. La distribution des rôles et des responsabilités se définissent par des procédures et des formes d'organisations qui varient parfois fortement d'une juridiction à l'autre. Ainsi, selon le contexte particulier et la nature de la tâche, le forensicien peut par exemple décider lui-même de cibler la recherche d'indices sur des lieux ou d'effectuer des traitements particuliers sur une trace. Il est susceptible dans d'autres rôles de recommander des pistes d'enquête ou d'évaluer la valeur probante d'un indice au profit d'une autorité judiciaire qui prend les décisions de condamnation. De mauvais choix peuvent aboutir in fine à des erreurs judiciaires. Comme les décisions se prennent sur la base d'informations incertaines et incomplètes, les risques d'erreurs doivent s'évaluer dans des cadres formels bien maîtrisés. L'erreur "acceptable" devient ainsi un thème crucial, surtout lorsque les systèmes automatisés sont susceptibles de prendre certaines décisions, notamment dans le cadre du contrôle de l'identité.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.
Resumo:
(Résumé de l'ouvrage) "L'évangile exploré" : ce titre résume de façon lapidaire quarante années d'enseignement, de recherche, de publications d'un exégète, le P. Simon Légasse. Les diverses études rassemblées ici sont dues à des biblistes qui ont pour centre d'intérêt principal le Nouveau Testament. Chaque article constitue un exemple de cette exploration des Écritures qui est la tâche des exégètes.
Resumo:
Plan du travail La première partie de cette thèse est consacrée à la tentative d'identifier les racines et lés contours d'une théorie de la vulnérabilité collective. Des approches théoriques et empiriques différentes sont exposées, et parfois revisitées, dans le but de proposer une perspective intégrative des sollicitations psychologiques particulières et des comportements sociaux caractéristiques d'un contexte de vulnérabilité collective. Dans le premier chapitre, les liens conceptuels entre les trois notions fondamentales de normes, de communautés et d'histoire sont explicités, afin de clarifier l'approche non-réductionniste des dynamiques collectives qui oriente le travail. Une attention particulière est accordée aux processus par lesquels des comportements sociaux orientés par des normes pertinentes au sein d'une communauté permettent de clarifier et de transformer des identités sociales (Reicher, 1982), voire de générer de nouveaux faits institutionnels (Searle, 1995). Il s'agit aussi de mettre en évidence l'apport potentiel d'une théorie qui se construit autour de l'articulation entre l'individu et son contexte social, à un débat épistémologique et méta-théorique entre psychologues sociaux, présent dès l'origine de la discipline (voire notamment Doise, 1982 ; Greenwood, 2004 ; Reicher, 2004 ; Tajfel, 1972). Les deux chapitres suivants proposent une logique explicative de la manière dont les membres d'une communauté, traversant une expérience de vulnérabilité collective, construisent une ligne d'action pour réagir aux sollicitations particulières d'un tel contexte social. Plus précisément, le chapitre 2 met en perspective des travaux de psychologie sociale sur le décalage entre l'identification d'injustices personnelles et l'identification d'injustices collectives, avec des travaux de sciences politiques sur le contraste entre l'irrationnalité apparente des comportements politiques compte tenu des situations de vie individuelles, et la rationnalité collective émergente de ces comportements en réaction à l'évolution de la situation collective. Le chapitre 3 met en perspective les travaux de psychologie sociale sur les motivations psychologiques et les stratégies mises en oeuvre afin de protéger la croyance fondamentale de vivre dans un monde juste, avec des travaux sociologiques rendant compte de l'incapacité humaine à supporter des situations d'anomie. Ces deux chapitres permettent ainsi d'étayer théoriquement l'hypothèse fondamentale qu'une expérience de vulnérabilité collective suscite des réactions qui dépassent la somme des réactions individuelles aux expériences personnelles de victimisation correspondantes. Ils amèneront à identifier deux types de comportements sociaux comme réactions typiques à un contexte de vulnérabilité collective : la contestation des dirigeants et des institutions du pouvoir établi, ainsi que la condamnation des transgressions des principes normatifs fragilisés. Lors des deux derniers chapitres de la partie théorique, ces phénomènes sont inscrits dans une temporalité plus longue. Le chapitre 4 tâche, d'une part, de préciser les conditions sociohistoriques particulières dans lesquelles la mise en cause du pouvoir établi et la réaffirmation de principes normatifs fragilisés amène à la reconnaissance que ces principes devraient s'appliquer également au traitement de personnes en dehors des frontières d'une communauté d'appartenance exclusive, ainsi qu'en particulier à la reconnaissance de droits universels. D'autre part, ce chapitre soulève la question des processus d'institutionnalisation qui stabilisent dans le temps les acquis normatifs résultant d'épisodes socio-historiques spécifiques, en particulier sous forme d'une inscription dans le droit international. L'idée est développée ainsi que c'est avant tout lors d'épisodes de problématisation d'identités exclusives que naît ou renaît l'aspiration à instituer une identité humaine. Le chapitre 5, finalement, introduit un second processus par lequel les acquis normatifs, résultant d'épisodes de vulnérabilité collective, sont susceptibles d'être préservés, à partir de l'idée que ceux-ci ne génèrent pas seulement des conditions favorables à l'émergence de nouvelles institutions, mais affectent également les engagements identitaires d'un nombre important d'individus simultanément. L'hypothèse est développée que la transition à la vie adulte constitue un passage du parcours de vie qui est particulièrement propice à un effet durable du contexte socio-historique sur les engagements identitaires d'une personne. De cette manière, la génération des jeunes adultes lors d'une expérience de vulnérabilité collective est susceptible de porter à travers le temps les traces des reconfigurations symboliques résultant de l'événement. Les arguments théoriques développés à travers les cinq premiers chapitres sont condensés sous forme d'une série de propositions théoriques falsifiables, en plus de l'hypothèse fondamentale d'irréductibilité de l'expérience collective. Afin de faciliter et de structurer la lecture des chapitres 2 à 5, chacune de ces propositions est placée en amont du chapitre dans lequel sont présentés les principaux arguments théoriques qui l'étayent. Ceci devrait aider à la mise en relief d'un fil rouge qui organise ces chapitres au-delà des ramifications argumentatives plus fines. Les propositions théoriques énoncées sont conçues comme un système théorique ; la signification de chacune d'entre elle peut être appréhendée au mieux en relation avec l'ensemble des autres propositions. Néanmoins, ces propositions sont formulées de manière à ce que chacune puisse être confrontée séparément à des observations empiriques systématiques. Il s'agit de répondre entre autres à une exigence pragmatique : aucune base de données, existante à ce jour, ne permettrait une évaluation complète du système théorique proposé. Les deux autres parties de la thèse présentent une suite d'études empiriques destinées à évaluer la pertinence des idées théoriques développées lorsque celles-ci sont appliquées à deux types particuliers d'expériences de vulnérabilité collective : au contexte des sociétés européennes connaissant actuellement un phénomène d'exclusion sociale massive (deuxième partie) et au contexte des sociétés d'après-guerre (troisième partie). Dans les deux cas, une stratégie méthodologique en deux temps est poursuivie. La première étape consiste dans la présentation d'analyses secondaires de la base de données internationale la plus pertinente à disposition. Il s'agit des données du European Social Survey (EES), ainsi que de l'enquête People on War (PoW), c'est-à-dire de deux enquêtes comparatives portant sur des échantillons représentatifs des populations d'un nombre de contextes considérables. Elles présentent l'avantage majeur de fournir simultanément des informations sur les expériences de victimisation pertinentes -situations de chômage et de pauvreté, dans le premier cas, expériences traumatisantes de la guerre dans le second - et sur l'expression de jugements politiques ou normatifs. Etant donné le caractère représentatif des échantillons étudiés, il est possible de construire des indicateurs qui informent sur la qualité des expériences collectives par agrégation des expériences individuelles à un niveau contextuel. L'utilisation de méthodes d'analyse multiniveaux permet ensuite de démêler l'impact des expériences collectives de celui des expériences individuelles sur les jugements exprimés. La deuxième étape consiste à compléter les analyses secondaires par une enquête réalisée directement en vue du cadre théorique présenté ici. Deux enquêtes ont été réalisées sur des échantillons de jeunes (pré-)adultes, à travers des contextes moins nombreux, mais directement sélectionnés selon des critères théoriques. Ainsi, l'Enquête sur l'entrée dans la vie adulte à travers trois régions françaises (EVA), se concentre sur trois contextes régionaux qui représentent trois situations-type quant à l'intensité de la vulnérabilité collective liée à l'exclusion sociale : particulièrement forte, intermédiaire ou particulièrement faible. L'enquête Transition to adulthood and collective expériences survey (TRACES) rassemble quatre pays d'ex-Yougoslavie, selon un plan qui croise les deux types de vulnérabilité collective pris en compte : deux contextes sur quatre ont été marqués par un épisode de vulnérabilité collective particulièrement intense lié à la guerre, et deux contextes sont marqués par une très forte vulnérabilité collective liée à l'exclusion sociale ; l'un de ces deux derniers contextes seulement a également été fortement affecté par la guerre. Se concentrant sur des échantillons plus modestes, ces deux enquêtes permettent des approfondissements importants, du fait qu'elles recourent à des outils d'enquête taillés sur mesure pour la problématique présente, en particulier des outils permettant d'évaluer les réactions face à des cas concrets de violations des droits humains, présentés sous forme de scénarios. Dans leur ordre de présentation, l'objet des quatre chapitres empiriques se résume de la manière suivante. Le chapitre 6 présente des analyses secondaires des deux premières vagues du ESS (2002 et 2004), portant en premier lieu sur l'impact du degré d'exclusion sociale sur la contestation des dirigeants et des institutions politiques, à travers vingt pays européens. Une importance particulière est accordée à la manière dont les expériences modulent l'effet des insertions dans des relations entre groupes asymétriques sur les jugements politiques, ainsi que sur la durabilité des effets des expériences collectives en fonction des cohortes. Les analyses de l'enquête EVA, dans le chapitre 7, approfondissent l'étude des liens entre contexte de vulnérabilité collective liée à l'exclusion sociale, l'insertion dans des rapports sociaux asymétriques et la contestation des institutions politiques. De plus, elles mettent en perspective ces liens avec les variations, en fonction du contexte et de l'origine sociale, de la condamnation de transgressions concrètes des droits socio-économiques. Le chapitre 8 rapporte les analyses secondaires de l'enquête PoW de 1999, qui visent en premier lieu à expliquer - à travers 14 contextes d'après-guerre sur quatre continents - les condamnations des violations du droit international humanitaire et la reconnaissance du caractère légal des normes transgressées en fonction de la distribution des expériences traumatisantes au sein de chaque contexte. Ces analyses permettent en particulier de comparer l'effet à moyen terme de ces expériences en fonction de l'âge au moment de la période du conflit armé. Finalement, le chapitre 9 présente des résultats de l'enquête TRACES. Ceux-ci permettent d'évaluer l'impact des expériences d'une vulnérabilité collective liée à la guerre sur la cohorte des jeunes adultes de la guerre, et de le mettre en perspective avec l'impact de l'exclusion sociale massive. Plusieurs dimensions sont prises en compte : la contestation des institutions politiques et la force de la condamnation de la violation des normes humanitaires ou des droits socio-économiques, ainsi que la reconnaissance d'une juridiction internationale en la matière. De plus, les fonctions psychologiques spécifiques de l'engagement dans la réaffirmation de normes fragilisées sont étudiées, notamment en termes d'effets sur la restauration de la croyance en une justice fondamentale, et sur la satisfaction de vie personnelle. Au fil de ces quatre chapitres empiriques, les propositions théoriques énoncées au préalable servent de passerelles entre le système théorique et les études empiriques. Dans l'introduction de chaque étude, les propositions qui s'y appliquent sont reprises et ensuite reformulées sous forme d'une hypothèse opérationnelle qui adopte la proposition générale au contexte et au phénomène spécifiques. Les deux parties empiriques sont suivies d'une conclusion, qui établit d'abord un bilan de l'apport de l'ensemble des quatre enquêtes analysées à la vérification de toutes les propositions théoriques, pour extraire ensuite trois principes explicatifs plus généraux et pour préciser leur insertion dans un contexte méta-théorique plus large.
Resumo:
Le cannabis est l'une des drogues illégales les plus consommées au monde. Le delta-9- tétrahydrocannabinol (THC) est le composé psychoactif majeur du cannabis et est fréquemment détecté dans le sang de conducteurs impliqués dans un accident de la route, alors qu'il est actuellement interdit de conduire sous l'influence du THC en Suisse comme dans de nombreux pays européens. La détection de ce composé dans le sang est suivie d'une série de mesures pénales et administratives à l'encontre du conducteur impliqué. Cette thèse intitulée « Etude d'administration contrôlée de cannabis et profils cinétiques dans les fluides biologiques » s'inscrit dans une étude toxicologique menée au Centre Hospitalier Universitaire Vaudois (CHUV). Le but de cette étude est d'évaluer les effets du cannabis sur le fonctionnement du cerveau lorsque le consommateur accompli une tâche fondamentale de la conduite automobile. Pour cela, l'imagerie médicale par résonnance magnétique fonctionnelle (IRMf) est combinée à un test informatisé simulant une tâche psychomotrice requise pour une conduite automobile sûre. Il s'agit d'un test de double tâche de poursuite d'une cible au moyen d'un curseur dirigé par un joystick, combiné à une tâche secondaire de détection de signaux routiers. Parallèlement, les profils cinétiques sanguins et salivaires des volontaires ont été déterminés grâce à des prélèvements effectués tout au long de la journée d'étude. Les objectifs principaux de ce travail de thèse sont les suivants : après une revue de la littérature existante sur les techniques d'analyse des cannabinoïdes dans les fluides biologiques, une méthode a été développée et validée pour ces composés dans la salive puis appliquée aux échantillons de l'étude. En parallèle, les échantillons sanguins et urinaires ont été analysés, en partie avec une méthode adaptée de celle développée pour la salive. Pour montrer la versatilité de cette méthode, celle-ci a été employée pour analyser des échantillons de bile qui a l'avantage de contenir des concentrations élevées de métabolites conjugués. Dans un deuxième temps, les dosages effectués sur le sang et la salive ont permis d'établir les profils cinétiques des cannabinoïdes, de déterminer leurs paramètres pharmacocinétiques et de les comparer. Les données obtenues ont montré que la concentration sanguine en acide 11-nor-9- carboxy-delta-9-tétrahydrocannabinol (THCCOOH) pouvait servir à distinguer les fumeurs occasionnels des fumeurs réguliers de cannabis, car elle est significativement plus élevée chez les consommateurs réguliers. De plus, d'autres cannabinoïdes présents dans la salive pourraient servir de marqueurs de consommation récente dans ce fluide biologique. Enfin, que ce soit dans le sang, la salive ou l'urine, des phytocannabinoïdes peuvent être utilisés comme marqueur de consommation de cannabis illégal car ils sont absents des médicaments à base de cannabis utilisant des préparations synthétiques ou purifiées du THC.
Resumo:
Résumé : Emotion et cognition sont deux termes généralement employés pour désigner des processus psychiques de nature opposée. C'est ainsi que les sciences cognitives se sont longtemps efforcées d'écarter la composante «chaude »des processus «froids »qu'elles visaient, si ce n'est pour montrer l'effet dévastateur de la première sur les seconds. Pourtant, les processus cognitifs (de collecte, maintien et utilisation d'information) et émotioAnels (d'activation subjective, physiologique et comportementale face à ce qui est attractif ou aversif) sont indissociables. Par l'approche neuro-éthologique, à l'interface entre le substrat biologique et les manifestations comportementales, nous nous sommes intéressés à une fonction cognitive essentielle, la fonction mnésique, classiquement exprimée chez le rongeur par l'orientation spatiale. Au niveau du substrat, McDonald et White (1993) ont montré la dissociation de trois systèmes de mémoire, avec les rôles de l'hippocampe, du néostriatum et de l'amygdale dans l'encodage des informations respectivement épisodiques, procédurales et émotionnelles. Nous nous sommes penchés sur l'interaction entre ces systèmes en fonction de la dimension émotionnelle par l'éclairage du comportement. L'état émotionnel de l'animal dépend de plusieurs facteurs, que nous avons tenté de contrôler indirectement en comparant leurs effets sur l'acquisition, dans diverses conditions, de la tâche de Morris (qui nécessite la localisation dans un bassin de la position d'une plate-forme submergée), ainsi que sur le style d'exploration de diverses arènes, ouvertes ou fermées, plus ou moins structurées par la présence de tunnels en plexiglas transparent. Nous avons d'abord exploré le rôle d'un composant du système adrénergique dans le rapport à la difficulté et au stress, à l'aide de souris knock-out pour le récepteur à la noradrénaline a-1 B dans un protocole avec 1 ou 4 points de départ dans un bassin partitionné. Ensuite, nous nous sommes penchés, chez le rat, sur les effets de renforcement intermittent dans différentes conditions expérimentales. Dans ces conditions, nous avons également tenté d'analyser en quoi la situation du but dans un paysage donné pouvait interférer avec les effets de certaines formes de stress. Finalement, nous avons interrogé les conséquences de perturbations passées, y compris le renforcement partiel, sur l'organisation des déplacements sur sol sec. Nos résultats montrent la nécessité, pour les souris cont~ô/es dont l'orientation repose sur l'hippocampe, de pouvoir varier les trajectoires, ce qui favoriserait la constitution d'une carte cognitive. Les souris a->B KO s'avèrent plus sensibles au stress et capables de bénéficier de la condition de route qui permet des réponses simples et automatisées, sous-tendues par l'activité du striatum. Chez les rats en bassin 100% renforcé, l'orientation apparaît basée sur l'hippocampe, relayée par le striatum pour le développement d'approches systématiques et rapides, avec réorientation efficace en nouvelle position par réactivation dépendant de l'hippocampe. A 50% de renforcement, on observe un effet du type de déroulement des sessions, transitoirement atténué par la motivation Lorsque les essais s'enchaînent sans pause intrasession, les latences diminuent régulièrement, ce qui suggère une prise en charge possible par des routines S-R dépendant du striatum. L'organisation des mouvements exploratoires apparaît dépendante du niveau d'insécurité, avec différents profils intermédiaires entre la différentiation maximale et la thigmotaxie, qui peuvent être mis en relation avec différents niveaux d'efficacité de l'hippocampe. Ainsi, notre travail encourage à la prise en compte de la dimension émotionnelle comme modulatrice du traitement d'information, tant en phase d'exploration de l'environnement que d'exploitation des connaissances spatiales. Abstract : Emotion and cognition are terms widely used to refer to opposite mental processes. Hence, cognitive science research has for a long time pushed "hot" components away from "cool" targeted processes, except for assessing devastating effects of the former upon the latter. However, cognitive processes (of information collection, preservation, and utilization) and emotional processes (of subjective, physiological, and behavioral activation roue to attraction or aversion) are inseparable. At the crossing between biological substrate and behavioral expression, we studied a chief cognitive function, memory, classically shown in animals through spatial orientation. At the substrate level, McDonald et White (1993) have shown a dissociation between three memory systems, with the hippocampus, neostriatum, and amygdala, encoding respectively episodic, habit, and emotional information. Through the behavior of laboratory rodents, we targeted the interaction between those systems and the emotional axis. The emotional state of an animal depends on different factors, that we tried to check in a roundabout way by the comparison of their effects on acquisition, in a variety of conditions, of the Morris task (in which the location of a hidden platform in a pool is required), as well as on the exploration profile in different apparatus, open-field and closed mazes, more or less organized by clear Plexiglas tunnels. We first tracked the role, under more or less difficult and stressful conditions, of an adrenergic component, with knock-out mice for the a-1 B receptor in a partitioned water maze with 1 or 4 start positions. With rats, we looked for the consequences of partial reinforcement in the water maze in different experimental conditions. In those conditions, we further analyzed how the situation of the goal in the landscape could interfere with the effect of a given stress. At last, we conducted experiments on solid ground, in an open-field and in radial mazes, in order to analyze the organization of spatial behavior following an aversive life event, such as partial reinforcement training in the water maze. Our results emphasize the reliance of normal mice to be able to vary approach trajectories. One of our leading hypotheses is that such strategies are hippocampus-dependent and are best developed for of a "cognitive map like" representation. Alpha-1 B KO mice appear more sensitive to stress and able to take advantage of the route condition allowing simple and automated responses, most likely striatum based. With rats in 100% reinforced water maze, the orientation strategy is predominantly hippocampus dependent (as illustrated by the impairment induced by lesions of this structure) and becomes progressively striatum dependent for the development of systematic and fast successful approaches. Training towards a new platform position requires a hippocampus based strategy. With a 50% reinforcement rate, we found a clear impairment related to intersession disruption, an effect transitorily minimized by motivation enhancement (cold water). When trials are given without intrasession interruption, latencies consistently diminish, suggesting a possibility for striatum dependent stimulus-response routine to occur. The organization of exploratory movements is shown to depend on the level of subjective security, with different intermediary profiles between maximum differentiation and thigmotaxy, which can be considered in parallel with different efficiency levels of the hippocampus dependent strategies. Thus, our work fosters the consideration of emotion as a cognitive treatment modulator, during spatial exploration as well as spatial learning. It leads to a model in which the predominance of hippocampus based exploration is challenged by training conditions of various nature.
Resumo:
Résumé Le but final de ce projet est d'utiliser des cellules T ou des cellules souches mésenchymateuses modifiées génétiquement afin de surexprimer localement les deux chémokines CXCL13 et CCL2 ensemble ou chacune séparément à l'intérieur d'une tumeur solide. CXCL13 est supposé induire des structures lymphoïdes ectopiques. Un niveau élevé de CCL2 est présumé initier une inflammation aiguë. La combinaison des deux effets amène à un nouveau modèle d'étude des mécanismes régulateur de la tolérance périphérique et de l'immunité tumorale. Les connaissances acquises grâce à ce modèle pourraient permettre le développement ou l'amélioration des thérapies immunes du cancer. Le but premier de ce travail a été l'établissement d'un modèle génétique de la souris permettant d'exprimer spécifiquement dans la tumeur les deux chémokines d'intérêt à des niveaux élevés. Pour accomplir cette tâche, qui est en fait une thérapie génétique de tumeurs solides, deux types de cellules porteuses potentielles ont été évaluées. Des cellules CD8+ T et des cellules mésenchymateuses de la moelle osseuse transférées dans des receveurs portant une tumeur. Si on pouvait répondre aux besoins de la thérapie génétique, indépendamment de la thérapie immune envisagée, on posséderait là un outil précieux pour bien d'autres approches thérapeutiques. Plusieurs lignées de souris transgéniques ont été générées comme source de cellules CD8+ T modifiées afin d'exprimer les chémokines d'intérêt. Dans une approche doublement transgénique les propriétés de deux promoteurs spécifiques de cellules T ont été combinées en utilisant la technologie Cre-loxP. Le promoteur de granzyme B confère une dépendance d'activation et le promoteur distal de lck assure une forte expression constitutive dès que les cellules CD8+ T ont été activées. Les transgènes construits ont montré une bonne performance in vivo et des souris qui expriment CCL2 dans des cellules CD8+ T activées ont été obtenues. Ces cellules peuvent maintenant être utilisées avec différents protocoles pour transférer des cellules T cytotoxiques (CTL) dans des receveurs porteur d'une tumeur, permettant ainsi d'évaluer leur capacité en tant que porteuse de chémokine d'infiltrer la tumeur. L'établissement de souris transgéniques, qui expriment pareillement CXCL13 est prévu dans un avenir proche. L'évaluation de cellules mésenchymateuses de la moelle osseuse a démontré que ces cellules se greffent efficacement dans le stroma tumoral suite à la co-injection avec des cellules tumorales. Cela représente un outil précieux pour la recherche, vu qu'il permet d'introduire des cellules manipulées dans un modèle tumoral. Les résultats confirment partiellement d'autres résultats rapportés dans un modèle amélioré. Cependant, l'efficacité et la spécificité suggérées de la migration systémique de cellules mésenchymateuses de la moelle osseuse dans une tumeur n'ont pas été observées dans notre modèle, ce qui indique, que ces cellules ne se prêtent pas à une utilisation thérapeutique. Un autre résultat majeur de ce travail est l'établissement de cultures de cellules mésenchymateuses de la moelle osseuse in vitro conditionnées par des tumeurs, ce qui a permis à ces cellules de s'étendre plus rapidement en gardant leur capacité de migration et de greffe. Cela offre un autre outil précieux, vu que la culture in vitro est un pas nécessaire pour une manipulation thérapeutique. Abstract The ultimate aim of the presented project is to use genetically modified T cells or mesenchymal stem cells to locally overexpress the two chemokines CXCL13 and CCL2 together or each one alone inside a solid tumor. CXCL13 is supposed to induce ectopic lymphoid structures and a high level of CCL2 is intended to trigger acute inflamation. The combination of these two effects represents a new model for studying mechanisms that regulate peripheral tolerance and tumor immunity. Gained insights may help developing or improving immunotherapy of cancer. The primary goal of the executed work was the establishment of a genetic mouse model that allows tumor-specific expression of high levels of the two chemokines of interest. For accomplishing this task, which represents gene therapy of solid tumors, two types of potentially useful carrier cells were evaluated. CD8+ T cells and mesenchymal bone marrow cells to be used in adoptive cell transfers into tumor-bearing mice. Irrespectively of the envisaged immunotherapy, satisfaction of so far unmet needs of gene therapy would be a highly valuable tool that may be employed by many other therapeutic approaches, too. Several transgenic mouse lines were generated as a source of CD8+ T cells modified to express the chemokines of interest. In a double transgenic approach the properties of two T cell-specific promoters were combined using Cre-loxP technology. The granzyme B promoter confers activation-dependency and the lck distal promoter assures strong constitutive expression once the CD8+ T cell has been activated. The constructed transgenes showed a good performance in vivo and mice expressing CCL2 in activated CD8+ T cells were obtained. These cells can now be used with different protocols for adoptively transferring cytotoxic T cells (CTL) into tumor-bearing recipients, thus allowing to study their capacity as tumor-infiltrating chemokine carrier. The establishment of transgenic mice likewisely expressing CXCL13 is expected in the near future. In addition, T cells from generated single transgenic mice that have high expression of an EGFP reporter in both CD4+ and CD8+ cells can be easily traced in vivo when setting up adoptive transfer conditions. The evaluation of mesenchymal bone marrow cells demonstrated that these cells can efficiently engraft into tumor stroma upon local coinjection with tumor cells. This represents a valuable tool for research purposes as it allows to introduce manipulated stromal cells into a tumor model. Therefore, the established engraftment model is suited for studying the envisaged immunotherapy. These results confirm to some extend previously reported results in an improved model, however, the suggested systemic tumor homing efficiency and specificity of mesenchymal bone marrow cells was not observed in our model indicating that these cells may not be suited for therapeutic use. Another major result of the presented work is the establishment oftumor-conditioned in vitro culture of mesenchymal bone marrow cells, which allowed to more rapidly expand these cells while maintaining their tumor homing and engrafting capacities. This offers another valuable tool as in vitro culture is a necessary step for therapeutic manipulations.