204 resultados para stratégies du temps d’attente
Resumo:
Objectifs: Evaluer la faisabilité et l'évolution de la pratique ambulatoire des procédures endovasculaires pour traitement des artériopathies des membres inférieurs . Matériels et méthodes: 89 patients ont bénéficié d'une procédure endovasculaire ambulatoire (séjour hospitalier de moins de 24 heures) pour traitement d'une artériopathie desmembres inférieurs entre janvier 2005 et décembre 2005. Sont étudiés, le stade de l'artériopathie, la complexité des lésions, le type de procédure, lesco-morbidités, les complications, la reconversion en hospitalisation. Résultats: La majorité des patients présentait une artériopathie de stade de II (95%). Les lésions des artères fémorales superficielles représentaient 45% des procédures etcelles des axes iliaques 41%. La majorité des lésions étaient des sténoses (83%) de TASC a ou B. Cependant, l'évolution au court du temps montre que deslésions de plus en plus complexes étaient traitées en ambulatoire. La taille de l'introducteur était de 6 F dans 82% des cas. Le succès technique était de 98% et letaux des complications de 4,2%. Le taux de reconversion en hospitalisation était de 5,2%. Conclusion: Les procédures endovasculaires pour artériopathies des membres inférieurs de stade II peuvent être faites en ambulatoire y compris pour des lésions complexesavec un taux de complication et un taux de reconversion faibles.
Resumo:
Notre travail s'insère dans un vaste courant de recherche qui concerne le développement du phénomène religieux en Grèce entre la période mycénienne et l'époque archaïque et qui touche non seulement à l'archéologie, mais aussi à l'histoire de la religion et à la linguistique. Avant de présenter l'objet d'étude choisi (l'espace de culte) et de définir nos perspectives, il nous semble pourtant nécessaire de tracer les lignes principales relatives au débat déclenché par les théories de continuité ou de rupture et aux développements plus récents (premier chapitre). Dans le deuxième chapitre, nous illustrerons la structure de notre travail et nous présenterons la méthode élaborée et les sources utilisées pour retracer l'évolution des lieux cultuels au fil du temps. Dans ce but, le recensement et l'analyse de ceux-ci sur la base de principes fondamentaux de l'archéologie du culte sera complémentaire à l'examen de leurs rapports avec le territoire environnant entre l'Helladique IIIB et le Géométrique Récent. Cette approche sera appliquée à l'analyse de contextes régionaux considérés (troisième chapitre) et nous permettra d'avancer de nouvelles hypothèses concernant la fréquentation et dans la destination des espaces de culte de la Grèce centrale et du Péloponnèse durant la période considérée (quatrième et cinquième chapitre).
Predictors of weight change in sedentary smokers receiving a standard smoking cessation intervention
Resumo:
L'arrêt de la cigarette est généralement associé à une prise de poids. Celle-ci peut menacer la motivation des fumeurs à s'engager dans un processus d'arrêt du tabac et constitue un motif de rechute. L'ordre de grandeur et la cinétique de la prise de poids liée à une tentative d'arrêt chez les fumeurs pris en charge selon les recommandations cliniques actuelles est peu décrite dans la littérature médicale. Le but de cette étude était de quantifier cette prise de poids, d'en déterminer la cinétique ainsi que les facteurs qui l'influencent, chez des fumeurs sédentaires bénéficiant d'une intervention d'aide à l'arrêt du tabac individualisée, composée de conseils individuels et d'une substitution nicotinique associant plusieurs modes d'administration. Nous avons analysé des données récoltées durant un essai clinique randomisé contrôlé au cours duquel était étudié l'impact d'une activité physique modérée sur les taux d'arrêt du tabac après un an chez des fumeurs sédentaires. Nous avons modélisé l'évolution du poids de l'ensemble des participants au cours du temps, selon la technique statistique des « modèles mixtes longitudinaux ». En séparant les périodes d'abstinence de la cigarette de celles de rechute et de l'utilisation reportée de substituts nicotiniques. Cette approche nous a permis de prendre en compte chaque participant à l'étude, par opposition à un modèle plus simple qui séparerait les sujets abstinents de ceux qui rechutent à n'importe quel moment de la période de suivi. Nous avons également ajusté ces modèles pour l'âge, le sexe, le niveau de dépendance à la nicotine et le niveau de formation des participants. Parmi l'ensemble des participants, nous avons noté une augmentation du poids durant les trois premiers mois de l'intervention, suivie d'une stabilisation. Au total, la prise de poids moyenne s'est élevée à 3.3 kg pour les femmes et 3.9 kg pour les hommes. Durant les périodes d'abstinence, les caractéristiques suivantes étaient associées à la prise de poids : sexe masculin et forte dépendance nicotinique. Un âge supérieur à 43 ans était associé à une prise de poids également durant les périodes de rechute. Nous avons observé une tendance, non statistiquement significative, vers une réduction de la prise des poids avec l'utilisation de substituts nicotiniques. Notre étude apporte de nouvelles données sur l'évolution du poids chez les fumeurs sédentaires qui bénéficient d'une intervention d'aide à l'arrêt du tabac. Ils prennent donc du poids, de manière modérée et limitée aux premiers mois. Parmi eux, les hommes, les individus les plus dépendants à la nicotine et les plus âgés doivent s'attendre à une prise de poids supérieure à la moyenne.
Resumo:
(Résumé de l'ouvrage) Vingt-et-un biblistes de Suisse, de France, d'Allemagne et d'Italie se rassemblent autour d'un thème qui n'est pas seulement très actuel. Ce thème a été aperçu par Pierre Bonnard comme une structure fondamentale dans la théologie du Nouveau Testament: le souvenir, l'anamnèse. Faire mémoire de Jésus pour comprendre le temps présent. La mémoire du Jésus terrestre est cette structure qui gouverne la vie et la pensée des premiers chrétiens ; elle est le lieu des combats théologiques de Paul, de Luc, de Matthieu, de Jean... Lieu de toutes les fidélités et de toutes les déviances. Vingt-et-un exégètes reprennent ce thème, pour en mesurer la fécondité dans le champ textuel qui leur est familier. Quel rôle joue au premier siècle la mémoire de l'histoire originaire, au gré du temps qui passe? Comment décrire, et apprécier théologiquement, la relecture de l'histoire de Jésus à laquelle procèdent les auteurs du Nouveau Testament? Ces contributions sont un hommage à Pierre Bonnard et à son oeuvre d'exégète du Nouveau Testament.
Resumo:
Contexte¦- Les métastases hépatiques hypovasculaires sont parfois difficile à détecter car très polymorphiques et fréquemment irrégulières. Leurs contrastes sur CT scan hépatique sont souvent faibles.¦- Lors d'un diagnostic, le radiologue ne fixe pas sa vision fovéale sur chaque pixel de l'image. Les expériences de psychophysique avec eye-tracker montrent en effet que le radiologue se concentre sur quelques points spécifiques de l'image appelés fixations. Dans ce travail, nous nous intéresserons aux capacités de détection de l'oeil lorsque l'observateur effectue une saccade entre deux points de fixation. Plus particulièrement, nous nous intéresserons à caractériser les capacités de l'oeil à détecter les signaux se trouvant en dehors de sa vision fovéale, dans ce qu'on appelle, la vision périphérique.¦Objectifs¦- Caractériser l'effet de l'excentricité de la vision sur la détectabilité des contrastes dans le cas de métastases hépatiques hypovasculaires.¦- Récolter des données expérimentales en vue de créer un modèle mathématique qui permettra, à terme, de qualifier le système d'imagerie.¦- → objectifs du TM en soit :¦o prendre en main l'eyetracker¦o traduire une problématique médicale en une expérience scientifique reproductible, quantifiable et qualifiable.¦Méthode¦Nous effectuons une expérience 2AFC (2 Alternative Forced-Choice experiment) afin d'estimer la détectabilité du signal. Pour cela, nous forcerons l'observateur à maintenir son point de fixation à un endroit défini et vérifié par l'eye-tracker. La position del'excentricité du signal tumoral généré sur une coupe de CT hépatique sera le paramètre varié. L'observateur se verra présenté tour à tour deux coupes de CT hépatique, l'une comportant le signal tumoral standardisé et l'autre ne comportant pas le signal. L'observateur devra déterminer quelle image contient la pathologie avec la plus grande probabilité.¦- Cette expérience est un modèle simplifié de la réalité. En effet, le radiologue ne fixe pas un seul point lors de sa recherche mais effectue un "scanpath". Une seconde expérience, dite en free search sera effectuée dans la mesure du temps à disposition. Lors de cette expérience, le signal standardisé sera connu de l'observateur et il n'y aura plus de point de fixation forcée. L'eyetracker suivra le scanpath effectué par l'oeil de l'observateur lors de la recherche du signal sur une coupe de CT scan hépatique. L'intérêt de cette expérience réside dans l'observation de la corrélation entre les saccades et la découverte du signal. Elle permet aussi de vérifier les résultats obtenus lors de la première expérience.¦Résultats escomptés¦- Exp1 : Quantifier l'importance de l'excentricité en radiologie et aider à améliorer la performance de recherche.¦- Exp 2 : tester la validité des résultats obtenus par la première expérience.¦Plus value escomptée¦- Récolte de données pour créer un modèle mathématique capable de déterminer la qualité de l'image radiologique.¦- Possibilité d'extension à la recherche dans les trois dimensions du CT scan hépatique.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
L'exposition aux bioaérosols (endotoxines, bactéries et spores de champignons en suspension dans l'air) et les problèmes de santé qui en découlent sont bien connus dans certains milieux professionnels (station d'épuration des eaux usées, élevages d'animaux, traitements des déchets organiques, travailleurs du bois, récolte et manutention des céréales, agriculture...). Cependant, les études avec investigations des concentrations aéroportées d'endotoxines et de micro-organismes se font très rares dans d'autres milieux professionnels à risque. Cette note d'actualité scientifique présente la synthèse de deux publications visant à quantifier les bioaérosols dans deux milieux professionnels rarement étudiés : les cabinets dentaires et les cultures maraîchères de concombres et tomates. Les dentistes ainsi que leurs assistants sont souvent bien informés sur les risques chimiques, les risques liés aux postures et les risques d'accidents avec exposition au sang. En revanche, le risque infectieux lié à une exposition aux bioaérosols est la plupart du temps méconnu. La flore bactérienne buccale est très riche et l'utilisation d'instruments tels que la fraise, le détartreur à ultrasons et le pistolet air-eau entraîne la dissémination aéroportée d'une grande quantité de bactéries. De plus, la conception des instruments générant un jet d'eau (diamètre des tubulures) favorise la formation de biofilm propice à l'adhérence et à la multiplication de micro-organismes à l'intérieur même des tuyaux. Ces micro-organismes se retrouvent alors en suspension dans l'air lors de l'utilisation de ces pistolets.L'inhalation de grandes quantités de ces micro-organismes pourrait alors engendrer des problèmes respiratoires (hypersensibilisation, asthme). De plus la présence de pathogènes, tels que les légionelles, les pseudomonas et les mycobactéries à croissance rapide, dans l'eau de ces unités dentaires peut aussi entraîner des risques infectieux pour les patients et pour les soignants. La production de tomates et concombres en Europe en 2008, était respectivement de 17 et 2 millions de tonnes dont 850 000 et 140 000 tonnes pour la France. La récolte, le tri et la mise en cageots ou en barquette individuelle de ces légumes génèrent de la poussière riche en matières organiques. Très peu d'études ont investigué l'exposition à ces poussières et aux endotoxines dans les serres de cultures intensives. Notamment, les données concernant les cultures de tomates sont inexistantes bien que ce légume soit un des plus cultivés en Europe. [Auteur]
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
L'année 2003 est l'année du Bicentenaire, mais aussi celle de l'entrée en vigueur d'une nouvelle Constitution vaudoise. Après quatre ans de travaux, l'Assemblée constituante a accouché d'une charte appelée à régir la vie politique du canton pendant plusieurs décennies. Les débats ont cependant fait peu de place à l'histoire des idées politiques, qui ont modelé l'action des gouvernants, et à l'histoire constitutionnelle, dans laquelle ont été façonnées à un degré ou à un autre les grandes questions du temps présent. Il existe certes un grand nombre d'études qui abordent ces thématiques. Une foule de questions n'ont cependant pas encore été explorées et, surtout, les tentatives de montrer les liens presque organiques entre l'histoire des constitutions et l'histoire des idées sont rares. Il était donc intéressant de regrouper sous un toit commun des études abordant ces deux aspects de notre histoire. Aucun examen exhaustif n'était bien sûr possible. Il s'agit d'éclairages qui montreront combien certains débats constitutionnels ont baigné dans des ambiances intellectuelles particulières, arrimées à des événements ou à des courants de pensée qui ne pouvaient laisser les Vaudois indifférents. L'ouvrage est subdivisé en trois parties : - droits politiques et institutions ; - justice et finances publiques ; - histoire des idées politiques. L'histoire du canton de Vaud issu de l'Acte de Médiation est riche de débats politiques d'une haute tenue, où se croisent les influences les plus variées. C'est à une découverte de certaines d'entre elles qu'invite le présent ouvrage ; une manière d'entrer dans les soubassements historiques de la nouvelle Constitution vaudoise. L'ouvrage rassemble dix-neuf contributions, qui mettent toutes en évidence le profond enracinement intellectuel des débats ayant entouré la naissance des diverses constitutions vaudoises. Les auteurs de ces textes sont juristes, politologues ou historiens, au seuil de leur carrière ou dotés d'une riche expérience professionnelle, rattachés aux différents camps qui segmentent la vie politique. Le livre se nourrit de ces multiples vocations, de ces multiples sensibilités, et montre que l'histoire ne peut être soumise à un angle de vue unique. Il est agrémenté de vingt-cinq illustrations environ, dont plusieurs sont tirées de journaux satiriques vaudois du XIXe et du XXe siècle.
Resumo:
The present dissertation analyzed the construct of attachment at different time points, specifically focusing on two phases of adoptive family life that have so far received little attention from investigators. Study 1 focused on the first months of adoption, and analyzed the development of the attachment relationship to new caregivers. The sample was composed of a small but homogeneous group (n=6) of Korean-born children, adopted by Italian parents. The Parent Attachment Diary (Dozier & Stovall, 1997) was utilized to assess the child's attachment behavior. We assessed these behavior for the first 3 months after placement into adoption. Results showed a double variability of attachment behavior: within subjects during the 3-months, and between subjects, with just half of the children developing a stable pattern of attachment. In order to test the growth trajectories of attachment behavior, Hierarchical Linear Models (Bryk & Raudenbush, 1992) were also applied, but no significant population trend was identified. Study 2 analyzed attachment among adoptees during the sensitive period of adolescence. Data was derived from an international collection (n= 104, from Belgium Italy, and Romania) of semi-structured clinical interviews (with adolescents and with their adoptive parents), as well as from questionnaires. The purpose of this study was to detect the role played by risk and protective factors on the adoptee's behavioral and socio-emotional outcomes. In addition, we tested the possible interactions between the different attachment representations within the adoptive family. Results showed that pre-adoptive risk predicted the adolescent's adjustment; however, parental representations constituted an important moderator of this relationship. Moreover, the adolescent's security of attachment partially mediated the relationship between age at placement and later behavioral problems. In conclusion, the two present attachment studies highlighted the notable rate of change of attachment behavior over time, which showed its underlying plasticity, and thus the possible reparatory value of the adoption practice. Since parents have been proven to play an important role, especially in adolescence, the post-adoption support acquires even more importance in order to help parents promoting a positive and stable relational environment over time. - L'objectif de cette thèse est de décrire la formation des relations d'attachement chez les enfants et les adolescents adoptés, lors de deux phases particulières de la vie de la famille adoptive, qui ont été relativement peu étudiées. L'Étude 1 analyse les premiers mois après l'adoption, avec le but de comprendre si, et comment, une relation d'attachement aux nouveaux parents se développe. L'échantillon est composé d'un petit groupe (n = 6) d'enfants provenant de Corée du Sud, adoptés par des parents Italiens. A l'aide du Parent Attachment Diary (Dozier & Stovall, 1997), des observations des comportements d'attachement de l'enfant ont été recueillies chaque jour au cours des 3 premiers mois après l'arrivée. Les résultats montrent une double variabilité des comportements d'attachement: au niveau inter- et intra-individuel ; au premier de ces niveaux, seuleme la moitié des enfants parvient à développer un pattern stable d'attachement ; au niveau intra-individuel, les trajectoires de développement des comportements d'attachement ont été testées à l'aide de Modèles Linéaires Hiérarchiques (Bryk et Raudenbush, 1992), mais aucune tendance significative n'a pu être révélée. L'Étude 2 vise à analyser l'attachement chez des enfants adoptés dans l'enfance, lors de la période particulièrement sensible de l'adolescence. Les données sont issues d'un base de données internationale (n = 104, Belgique, Italie et Roumanie), composée d' entretiens cliniques semi-structurées (auprès de l'adolescents et des ses parents adoptifs), ainsi que de questionnaires. Les analyses statistiques visent à détecter la présence de facteurs de risque et de protection relativement à l'attachement et aux problèmes de comportement de l'enfant adopté. En outre, la présence d'interactions entre les représentations d'attachement des membres de la famille adoptive est évaluée. Les résultats montrent que les risques associés à la période pré-adoptive prédisent la qualité du bien-être de l'adolescent, mais les représentations parentales constituent un modérateur important de cette relation. En outre, la sécurité de l'attachement du jeune adopté médiatise partiellement la relation entre l'âge au moment du placement et les problèmes de comportement lors de l'adolescence. En conclusion, à l'aide de multiples données relatives à l'attachement, ces deux études soulignent son évolution notable au fil du temps, ce qui sous-tend la présence d'une certaine plasticité, et donc la possible valeur réparatrice de la pratique de l'adoption. Comme les parents semblent jouer un rôle important de ce point de vue, surtout à l'adolescence, cela renforce la notion d'un soutien post-adoption, en vue d'aider les parents à la promotion d'un environnement relationnel favorable et stable. - Il presente lavoro è volto ad analizzare l'attaccamento durante le due fasi della vita della famiglia adottiva che meno sono state indagate dalla letteratura. Lo Studio 1 aveva l'obiettivo di analizzare i primi mesi che seguono il collocamento del bambino, al fine di capire se e come una relazione di attaccamento verso i nuovi genitori si sviluppa. Il campione è composto da un piccolo gruppo (n = 6) di bambini provenienti dalla Corea del Sud e adottati da genitori italiani. Attraverso il Parent Attachment Diary (Stovall e Dozier, 1997) sono stati osservati quotidianamente, e per i primi tre mesi, i comportamenti di attaccamento del bambino. I risultati hanno mostrato una duplice variabilità: a livello intraindividuale (nell'arco dei 3 mesi), ed interindividuale, poiché solo la metà dei bambini ha sviluppato un pattern stabile di attaccamento. Per verificare le traiettorie di sviluppo di tali comportamenti, sono stati applicati i Modelli Lineari Gerarchici (Bryk & Raudenbush, 1992), che però non hanno stimato una tendenza significativa all'interno della popolazione. Obiettivo dello Studio 2 è stato quello di esaminare l'attaccamento nelle famiglie i cui figli adottivi si trovavano nella delicata fase adolescenziale. I dati, provenienti da una raccolta internazionale (n = 104, Belgio, Italia e Romania), erano costituiti da interviste cliniche semi-strutturate (con gli adolescenti e i propri genitori adottivi) e da questionari. Le analisi hanno indagato il ruolo dei fattori di rischio sullo sviluppo socio-emotivo e sugli eventuali problemi comportamentali dei ragazzi. Inoltre, sono state esaminate le possibili interazioni tra le diverse rappresentazioni di attaccamento dei membri della famiglia adottiva. I risultati hanno mostrato che il rischio pre-adottivo predice l'adattamento dell'adolescente, sebbene le rappresentazioni genitoriali costituiscano un importante moderatore di questa relazione. Inoltre, la sicurezza dell'attaccamento dell'adolescente media parzialmente la relazione tra età al momento dell'adozione e problemi comportamentali in adolescenza. In conclusione, attraverso i molteplici dati relativi all'attaccamento, i due studi ne hanno evidenziato il cambiamento nel tempo, a riprova della sua plasticità, e pertanto sottolineano il possibile valore riparativo dell'adozione. Dal momento che i genitori svolgono un ruolo importante, soprattutto in adolescenza, il supporto nel post- adozione diventa centrale per aiutarli a promuovere un ambiente relazionale favorevole e stabile nel tempo.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.