998 resultados para figures du temps
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
(Résumé de l'ouvrage) Vrai ou faux, attendu ou advenu, réel ou supposé, le Messie sous ses multiples figures traverse notre histoire, façonnant nos univers religieux et culturels. Vingt chercheurs, venus de différentes disciplines, confrontent leurs analyses sur les origines de cette idée, sa prégnance, et les transformations qu'elle a connues jusqu'à nos jours. Quelle place la figure du Messie occupe-t-elle dans le judaïsme, le christianisme et l'islamisme ? Comment l'idée de Messie a-t-elle fécondé l'ensemble de notre univers culturel ? Telles sont quelques-unes des pistes explorées par cet ouvrage.
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
L'exposition aux bioaérosols (endotoxines, bactéries et spores de champignons en suspension dans l'air) et les problèmes de santé qui en découlent sont bien connus dans certains milieux professionnels (station d'épuration des eaux usées, élevages d'animaux, traitements des déchets organiques, travailleurs du bois, récolte et manutention des céréales, agriculture...). Cependant, les études avec investigations des concentrations aéroportées d'endotoxines et de micro-organismes se font très rares dans d'autres milieux professionnels à risque. Cette note d'actualité scientifique présente la synthèse de deux publications visant à quantifier les bioaérosols dans deux milieux professionnels rarement étudiés : les cabinets dentaires et les cultures maraîchères de concombres et tomates. Les dentistes ainsi que leurs assistants sont souvent bien informés sur les risques chimiques, les risques liés aux postures et les risques d'accidents avec exposition au sang. En revanche, le risque infectieux lié à une exposition aux bioaérosols est la plupart du temps méconnu. La flore bactérienne buccale est très riche et l'utilisation d'instruments tels que la fraise, le détartreur à ultrasons et le pistolet air-eau entraîne la dissémination aéroportée d'une grande quantité de bactéries. De plus, la conception des instruments générant un jet d'eau (diamètre des tubulures) favorise la formation de biofilm propice à l'adhérence et à la multiplication de micro-organismes à l'intérieur même des tuyaux. Ces micro-organismes se retrouvent alors en suspension dans l'air lors de l'utilisation de ces pistolets.L'inhalation de grandes quantités de ces micro-organismes pourrait alors engendrer des problèmes respiratoires (hypersensibilisation, asthme). De plus la présence de pathogènes, tels que les légionelles, les pseudomonas et les mycobactéries à croissance rapide, dans l'eau de ces unités dentaires peut aussi entraîner des risques infectieux pour les patients et pour les soignants. La production de tomates et concombres en Europe en 2008, était respectivement de 17 et 2 millions de tonnes dont 850 000 et 140 000 tonnes pour la France. La récolte, le tri et la mise en cageots ou en barquette individuelle de ces légumes génèrent de la poussière riche en matières organiques. Très peu d'études ont investigué l'exposition à ces poussières et aux endotoxines dans les serres de cultures intensives. Notamment, les données concernant les cultures de tomates sont inexistantes bien que ce légume soit un des plus cultivés en Europe. [Auteur]
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
L'année 2003 est l'année du Bicentenaire, mais aussi celle de l'entrée en vigueur d'une nouvelle Constitution vaudoise. Après quatre ans de travaux, l'Assemblée constituante a accouché d'une charte appelée à régir la vie politique du canton pendant plusieurs décennies. Les débats ont cependant fait peu de place à l'histoire des idées politiques, qui ont modelé l'action des gouvernants, et à l'histoire constitutionnelle, dans laquelle ont été façonnées à un degré ou à un autre les grandes questions du temps présent. Il existe certes un grand nombre d'études qui abordent ces thématiques. Une foule de questions n'ont cependant pas encore été explorées et, surtout, les tentatives de montrer les liens presque organiques entre l'histoire des constitutions et l'histoire des idées sont rares. Il était donc intéressant de regrouper sous un toit commun des études abordant ces deux aspects de notre histoire. Aucun examen exhaustif n'était bien sûr possible. Il s'agit d'éclairages qui montreront combien certains débats constitutionnels ont baigné dans des ambiances intellectuelles particulières, arrimées à des événements ou à des courants de pensée qui ne pouvaient laisser les Vaudois indifférents. L'ouvrage est subdivisé en trois parties : - droits politiques et institutions ; - justice et finances publiques ; - histoire des idées politiques. L'histoire du canton de Vaud issu de l'Acte de Médiation est riche de débats politiques d'une haute tenue, où se croisent les influences les plus variées. C'est à une découverte de certaines d'entre elles qu'invite le présent ouvrage ; une manière d'entrer dans les soubassements historiques de la nouvelle Constitution vaudoise. L'ouvrage rassemble dix-neuf contributions, qui mettent toutes en évidence le profond enracinement intellectuel des débats ayant entouré la naissance des diverses constitutions vaudoises. Les auteurs de ces textes sont juristes, politologues ou historiens, au seuil de leur carrière ou dotés d'une riche expérience professionnelle, rattachés aux différents camps qui segmentent la vie politique. Le livre se nourrit de ces multiples vocations, de ces multiples sensibilités, et montre que l'histoire ne peut être soumise à un angle de vue unique. Il est agrémenté de vingt-cinq illustrations environ, dont plusieurs sont tirées de journaux satiriques vaudois du XIXe et du XXe siècle.
Resumo:
The present dissertation analyzed the construct of attachment at different time points, specifically focusing on two phases of adoptive family life that have so far received little attention from investigators. Study 1 focused on the first months of adoption, and analyzed the development of the attachment relationship to new caregivers. The sample was composed of a small but homogeneous group (n=6) of Korean-born children, adopted by Italian parents. The Parent Attachment Diary (Dozier & Stovall, 1997) was utilized to assess the child's attachment behavior. We assessed these behavior for the first 3 months after placement into adoption. Results showed a double variability of attachment behavior: within subjects during the 3-months, and between subjects, with just half of the children developing a stable pattern of attachment. In order to test the growth trajectories of attachment behavior, Hierarchical Linear Models (Bryk & Raudenbush, 1992) were also applied, but no significant population trend was identified. Study 2 analyzed attachment among adoptees during the sensitive period of adolescence. Data was derived from an international collection (n= 104, from Belgium Italy, and Romania) of semi-structured clinical interviews (with adolescents and with their adoptive parents), as well as from questionnaires. The purpose of this study was to detect the role played by risk and protective factors on the adoptee's behavioral and socio-emotional outcomes. In addition, we tested the possible interactions between the different attachment representations within the adoptive family. Results showed that pre-adoptive risk predicted the adolescent's adjustment; however, parental representations constituted an important moderator of this relationship. Moreover, the adolescent's security of attachment partially mediated the relationship between age at placement and later behavioral problems. In conclusion, the two present attachment studies highlighted the notable rate of change of attachment behavior over time, which showed its underlying plasticity, and thus the possible reparatory value of the adoption practice. Since parents have been proven to play an important role, especially in adolescence, the post-adoption support acquires even more importance in order to help parents promoting a positive and stable relational environment over time. - L'objectif de cette thèse est de décrire la formation des relations d'attachement chez les enfants et les adolescents adoptés, lors de deux phases particulières de la vie de la famille adoptive, qui ont été relativement peu étudiées. L'Étude 1 analyse les premiers mois après l'adoption, avec le but de comprendre si, et comment, une relation d'attachement aux nouveaux parents se développe. L'échantillon est composé d'un petit groupe (n = 6) d'enfants provenant de Corée du Sud, adoptés par des parents Italiens. A l'aide du Parent Attachment Diary (Dozier & Stovall, 1997), des observations des comportements d'attachement de l'enfant ont été recueillies chaque jour au cours des 3 premiers mois après l'arrivée. Les résultats montrent une double variabilité des comportements d'attachement: au niveau inter- et intra-individuel ; au premier de ces niveaux, seuleme la moitié des enfants parvient à développer un pattern stable d'attachement ; au niveau intra-individuel, les trajectoires de développement des comportements d'attachement ont été testées à l'aide de Modèles Linéaires Hiérarchiques (Bryk et Raudenbush, 1992), mais aucune tendance significative n'a pu être révélée. L'Étude 2 vise à analyser l'attachement chez des enfants adoptés dans l'enfance, lors de la période particulièrement sensible de l'adolescence. Les données sont issues d'un base de données internationale (n = 104, Belgique, Italie et Roumanie), composée d' entretiens cliniques semi-structurées (auprès de l'adolescents et des ses parents adoptifs), ainsi que de questionnaires. Les analyses statistiques visent à détecter la présence de facteurs de risque et de protection relativement à l'attachement et aux problèmes de comportement de l'enfant adopté. En outre, la présence d'interactions entre les représentations d'attachement des membres de la famille adoptive est évaluée. Les résultats montrent que les risques associés à la période pré-adoptive prédisent la qualité du bien-être de l'adolescent, mais les représentations parentales constituent un modérateur important de cette relation. En outre, la sécurité de l'attachement du jeune adopté médiatise partiellement la relation entre l'âge au moment du placement et les problèmes de comportement lors de l'adolescence. En conclusion, à l'aide de multiples données relatives à l'attachement, ces deux études soulignent son évolution notable au fil du temps, ce qui sous-tend la présence d'une certaine plasticité, et donc la possible valeur réparatrice de la pratique de l'adoption. Comme les parents semblent jouer un rôle important de ce point de vue, surtout à l'adolescence, cela renforce la notion d'un soutien post-adoption, en vue d'aider les parents à la promotion d'un environnement relationnel favorable et stable. - Il presente lavoro è volto ad analizzare l'attaccamento durante le due fasi della vita della famiglia adottiva che meno sono state indagate dalla letteratura. Lo Studio 1 aveva l'obiettivo di analizzare i primi mesi che seguono il collocamento del bambino, al fine di capire se e come una relazione di attaccamento verso i nuovi genitori si sviluppa. Il campione è composto da un piccolo gruppo (n = 6) di bambini provenienti dalla Corea del Sud e adottati da genitori italiani. Attraverso il Parent Attachment Diary (Stovall e Dozier, 1997) sono stati osservati quotidianamente, e per i primi tre mesi, i comportamenti di attaccamento del bambino. I risultati hanno mostrato una duplice variabilità: a livello intraindividuale (nell'arco dei 3 mesi), ed interindividuale, poiché solo la metà dei bambini ha sviluppato un pattern stabile di attaccamento. Per verificare le traiettorie di sviluppo di tali comportamenti, sono stati applicati i Modelli Lineari Gerarchici (Bryk & Raudenbush, 1992), che però non hanno stimato una tendenza significativa all'interno della popolazione. Obiettivo dello Studio 2 è stato quello di esaminare l'attaccamento nelle famiglie i cui figli adottivi si trovavano nella delicata fase adolescenziale. I dati, provenienti da una raccolta internazionale (n = 104, Belgio, Italia e Romania), erano costituiti da interviste cliniche semi-strutturate (con gli adolescenti e i propri genitori adottivi) e da questionari. Le analisi hanno indagato il ruolo dei fattori di rischio sullo sviluppo socio-emotivo e sugli eventuali problemi comportamentali dei ragazzi. Inoltre, sono state esaminate le possibili interazioni tra le diverse rappresentazioni di attaccamento dei membri della famiglia adottiva. I risultati hanno mostrato che il rischio pre-adottivo predice l'adattamento dell'adolescente, sebbene le rappresentazioni genitoriali costituiscano un importante moderatore di questa relazione. Inoltre, la sicurezza dell'attaccamento dell'adolescente media parzialmente la relazione tra età al momento dell'adozione e problemi comportamentali in adolescenza. In conclusione, attraverso i molteplici dati relativi all'attaccamento, i due studi ne hanno evidenziato il cambiamento nel tempo, a riprova della sua plasticità, e pertanto sottolineano il possibile valore riparativo dell'adozione. Dal momento che i genitori svolgono un ruolo importante, soprattutto in adolescenza, il supporto nel post- adozione diventa centrale per aiutarli a promuovere un ambiente relazionale favorevole e stabile nel tempo.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
La douleur neuropathique est définie comme une douleur causée par une lésion du système nerveux somato-sensoriel. Elle se caractérise par des douleurs exagérées, spontanées, ou déclenchées par des stimuli normalement non douloureux (allodynie) ou douloureux (hyperalgésie). Bien qu'elle concerne 7% de la population, ses mécanismes biologiques ne sont pas encore élucidés. L'étude des variations d'expressions géniques dans les tissus-clés des voies sensorielles (notamment le ganglion spinal et la corne dorsale de la moelle épinière) à différents moments après une lésion nerveuse périphérique permettrait de mettre en évidence de nouvelles cibles thérapeutiques. Elles se détectent de manière sensible par reverse transcription quantitative real-time polymerase chain reaction (RT- qPCR). Pour garantir des résultats fiables, des guidelines ont récemment recommandé la validation des gènes de référence utilisés pour la normalisation des données ("Minimum information for publication of quantitative real-time PCR experiments", Bustin et al 2009). Après recherche dans la littérature des gènes de référence fréquemment utilisés dans notre modèle de douleur neuropathique périphérique SNI (spared nerve injury) et dans le tissu nerveux en général, nous avons établi une liste de potentiels bons candidats: Actin beta (Actb), Glyceraldehyde-3-phosphate dehydrogenase (GAPDH), ribosomal proteins 18S (18S), L13a (RPL13a) et L29 (RPL29), hypoxanthine phosphoribosyltransferase 1 (HPRT1) et hydroxymethyl-bilane synthase (HMBS). Nous avons évalué la stabilité d'expression de ces gènes dans le ganglion spinal et dans la corne dorsale à différents moments après la lésion nerveuse (SNI) en calculant des coefficients de variation et utilisant l'algorithme geNorm qui compare les niveaux d'expression entre les différents candidats et détermine la paire de gènes restante la plus stable. Il a aussi été possible de classer les gènes selon leur stabilité et d'identifier le nombre de gènes nécessaires pour une normalisation la plus précise. Les gènes les plus cités comme référence dans le modèle SNI ont été GAPDH, HMBS, Actb, HPRT1 et 18S. Seuls HPRT1 and 18S ont été précédemment validés dans des arrays de RT-qPCR. Dans notre étude, tous les gènes testés dans le ganglion spinal et dans la corne dorsale satisfont au critère de stabilité exprimé par une M-value inférieure à 1. Par contre avec un coefficient de variation (CV) supérieur à 50% dans le ganglion spinal, 18S ne peut être retenu. La paire de gènes la plus stable dans le ganglion spinal est HPRT1 et Actb et dans la corne dorsale il s'agit de RPL29 et RPL13a. L'utilisation de 2 gènes de référence stables suffit pour une normalisation fiable. Nous avons donc classé et validé Actb, RPL29, RPL13a, HMBS, GAPDH, HPRT1 et 18S comme gènes de référence utilisables dans la corne dorsale pour le modèle SNI chez le rat. Dans le ganglion spinal 18S n'a pas rempli nos critères. Nous avons aussi déterminé que la combinaison de deux gènes de référence stables suffit pour une normalisation précise. Les variations d'expression génique de potentiels gènes d'intérêts dans des conditions expérimentales identiques (SNI, tissu et timepoints post SNI) vont pouvoir se mesurer sur la base d'une normalisation fiable. Non seulement il sera possible d'identifier des régulations potentiellement importantes dans la genèse de la douleur neuropathique mais aussi d'observer les différents phénotypes évoluant au cours du temps après lésion nerveuse.
Resumo:
Résumé (français)ContexteLe tabagisme est connu pour produire un effet coupe-faim chez la plupart des fumeurs. La crainte de la prise de poids à l'arrêt de la cigarette l'emporte souvent sur la perception des bénéfices sur la santé associés à l'abandon du tabac, particulièrement chez les adolescents. Nous avons examiné quel a été le rôle de l'industrie du tabac dans cet effet de la fumée sur l'appétit et sur le contrôle du poids.MéthodesNous avons réalisé une recherche systématique dans les archives de six grandes compagnies de tabac américaines et du Royaume-Uni (American Tobacco, Philip Morris, RJ Reynolds, Lorillard, Brown & Williamson et British American Tobacco) qui avaient été mises en cause dans les procès du tabac en 1998 aux Etats-Unis. Les résultats concernent les années 1949 à 1999.RésultatsLes archives de ces industries montrent qu'elles ont mis au point et ont utilisé diverses stratégies pour améliorer les effets du tabagisme sur le poids et l'appétit, la plupart du temps en réalisant des modifications chimiques des cigarettes. Des substances coupe-faim, telles que l'acide tartrique et le 2-acétylpyridine ont notamment été ajoutées aux cigarettes.ConclusionEn tout cas par le passé, ces compagnies de tabac ont activement modifié leurs cigarettes afin d'en augmenter l'effet de diminution de l'appétit, notamment en y ajoutant des substances coupe-faim.