444 resultados para Savoir professionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La station valaisanne de Crans-Montana est richement représentée par la photographie, la peinture, les affiches et l'architecture. Cette thèse de doctorat s'emploie à réunir un large corpus de photographies et de représentations : peintures, affiches, cartes postales et reproductions de bâtiments emblématiques (voir le corpus illustré et documentaire annexé). Les questions liées à l'identité du territoire et son image sont les fils conducteurs de ce travail qui a débuté en 2008. Un premier ensemble visuel a été réuni par le Dr Théodore Stephani (1868-1951), un acteur fondamental pour l'histoire de la naissance de la station. Médecin, mais également photographe, il réalise une collection de plus de 1300 clichés, réunie en six albums, sur une période de trente-sept ans (1899-1936). Les photographies du médecin, originaire de Genève, fondateur de ce lieu désormais touristique sont le point de départ de cette recherche et son fil rouge. Celle-ci tentera d'articuler des représentations sur l'évolution du paysage et l'urbanisation de la station autour d'acteurs illustres, tels que les peintres Ferdinand Hodler (1853-1918) et Albert Muret (1874-1955), l'écrivain Charles-Ferdinand Ramuz (1878-1947) et les nombreux hôteliers ou médecins qui ont marqué l'histoire de la naissance du Haut-Plateau. Les représentations débutent en 1896 car c'est à ce moment-là que le Dr Stephani s'établit à Montana. Les architectes les plus connus de la première période sont François-Casimir Besson (1869-1944), Markus Burgener (1878-1953), suivi de la deuxième génération autour de Jean-Marie Ellenberger (1913-1988), André Perraudin (1915-2014) et André Gaillard (1921-2010). Parallèlement ou avant eux, les peintres déjà cités, Ferdinand Hodler et Albert Muret, - suivis de René Auberjonois (1872-1957), Henri-Edouard Bercher (1877-1970), Charles-Clos Olsommer (1883-1966), Oskar Kokoschka (1886-1980), Albert Chavaz (1907¬1990), Paul Monnier (1907-1982) et Hans Emi (1909-2015) - qui appartiennent tous à l'histoire culturelle de la région. Quant aux écrivains qui ont résidé dans la région, nous citons Elizabeth von Arnim (1866-1941), sa cousine Katherine Mansfield (1888-1923) alors que l'oeuvre de Charles-Ferdinand Ramuz est largement développée par une interprétation de son oeuvre Le Règne de l'esprit malin (1917) et un clin d'oeil pour Igor Stravinsky (1882¬1971). Nous présenterons aussi les films de trois cinéastes qui se sont inspirés des oeuvres écrites par Ramuz lors de son passage à Lens, à savoir Dimitri Kirsanoff (1899-1957), Claude Goretta (1929) et Francis Reusser (1942). Le concept du « village » est abordé depuis l'exposition nationale suisse (1896) jusqu'au projet des investisseurs russes, à Aminona. Ce « village » est le deuxième mégaprojet de Suisse, après celui d'Andermatt. Si le projet se réalise, l'image de la station s'en trouvera profondément transformée. En 1998, la publication de Au bord de la falaise. L'histoire entre certitudes et inquiétudes amène une grande visibilité aux propositions de Roger Chartier, qui lie l'étude des textes aux objets matériels et les usages qu'ils engendrent dans la société. Il définit l'histoire culturelle comme "une histoire culturelle du social" alors que pour Pascal Ory, une histoire culturelle est "comme une forme d'histoire sociale", ce qui revient presque au même, mais nous choisirons celle d'Ory pour une histoire sociale du paysage et de l'architecture. Ce travail adopte ainsi plusieurs points de vue : l'histoire sociale, basée sur les interviews de nombreux protagonistes de l'histoire locale, et l'histoire de l'art qui permet une sélection d'objets emblématiques ; l'histoire culturelle offre ainsi une méthode transversale pour lire et relier ces différents regards ou points de vue entre les paysages, les arts visuels, l'architecture, la littérature et le cinéma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse rassemble une série de méta-analyses, c'est-à-dire d'analyses ayant pour objet des analyses produites par des sociologues (notamment celles résultant de l'application de méthodes de traitement des entretiens). Il s'agit d'une démarche réflexive visant les pratiques concrètes des sociologues. Celles-ci sont envisagées comme des activités gouvernées par des règles. Une part importante de cette thèse sera donc consacrée au développement d'un outil d'analyse « pragmatologique » (E. Durkheim), c'est-à-dire permettant l'étude des pratiques et des règles en rapport avec elles. Pour aborder les règles, la philosophie analytique d'inspiration wittgensteinienne apporte plusieurs propositions importantes. Les règles sont ainsi considérées comme des concepts d'air de famille : il n'y a pas de définitions communes recouvrant l'ensemble des règles. Pour étudier les règles, il convient alors de faire des distinctions à partir de leurs usages. Une de ces distinctions concerne la différence entre règles constitutives et règles régulatives : une règle constitutive crée une pratique (e.g. le mariage), alors qu'une règle régulative s'applique à des activités qui peuvent exister sans elle (e.g. les règles du savoir-vivre). L'activité méthodologique des sociologues repose et est contrainte par ces types de règles, qui sont pour l'essentiel implicites. Cette thèse vise donc à rendre compte, par la description et la codification des règles, du caractère normatif des méthodes dans les pratiques d'analyse de la sociologie. Elle insiste en particulier sur les limites logiques qu'instituent les règles constitutives, celles-ci rendant impossibles (et non pas interdites) certaines actions des sociologues. This thesis brings together a series of meta-analyzes, that is, analyzes that tackle analyzes produced by sociologists (notably those resulting from the application of methods in treating interviews). The approach is reflexive and aimed at the concrete practices of sociologists, considered as activities governed by rules. An important part of this thesis is therefore devoted to the development of a "pragmatological" analytical tool (Durkheim) to conduct a study of such practices and of the rules that govern them. To approach these rules, Wittgenstein-inspired analytic philosophy offers several important proposals. The rules are, at first, seen as concepts of family resemblance, assuming that there is no common definition accounting for all rules. In order to conduct the study of such rules, it is therefore necessary to discern how they are respectively used. One of these distinctions concerns the difference between constitutive rules and regulative rules: a constitutive rule creates a practice (for example marriage), while a regulative rule applies to activities that can exist outside of the rule (for example, the rules of etiquette). The methodological activity of sociologists relies on, and is constrained by these types of rules, which are essentially implicit. Through the description and codification of rules, this thesis aims to account for the normative character of methods governing analytical practices in sociology. Particular emphasis is on the logical limits established by constitutive rules, limits that render several of the sociologist's actions impossible (rather than forbidden).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antigenic recognition by naive CD4+ T cells induces their proliferation and differentiation into functionally distinct T helper (Th) cell. Each CD4+ Th cell subset expresses specific transcription factors and produces signature cytokines that coordinate immune responses against encountered pathogens. Among the factors influencing CD4+ Th cell differentiation, Notch signaling pathway has been reported to play a role in the differentiation and function of multiple CD4+Thcell subsets. Notch signaling is an evolutionarily conserved cell-to-cell signaling cascade involved in many cell fate decision processes. How Notch signaling modulates the differentiation of CD4+ Th cell subsets and whether Notch signaling alone is sufficient or not for the differentiation of CD4+ Th cells is still a matter of debate. Th17 cells are a distinct subset of CD4+ Th cells. They play a role in the control of extracellular bacterial and fungal infections and may lead to inflammatory and autoimmune diseases if not properly regulated. Th17 cells are defined by the expression of RAR-related orphan receptor (ROR)a and RORyT transcription factors and their secretion of IL-17A, IL-17F cytokines. The involvement of Notch signaling in Th17 cell differentiation has mostly been studied in vitro. However, neither the experimental conditions when Notch signaling might be involved in Th17 cell differentiation in vitro and in vivo nor the precise role of Notch in this process remain clear. To better define how Notch signaling impacts Th17 differentiation, we used mice with T cell specific ablation of Notchl and Notch2 (N1 N2ACD4Cre) or of Notch transcriptional repressor RBP- JK (RBP-J ACD4Cre). We show that impaired Notch signaling in T cells, when TCR activating signal were reduced, increased RORyT and IL-17 mRNA levels during in vitro Th17 cell differentiation. Following immunization with OVA in CFA, an adjuvant that induces mostly Th17 cell response, increased IL-17A mRNA and intracellular IL-17A levels were observed in draining lymph nodes of Notch-deficient CD4+T cells. Our data suggest that Notch limited Th17 cell differentiation. Despite high levels of IL-17 mRNA and intracellular IL-17 proteins observed in Notch-deficient T cells, their release of Th17 cytokines ex vivo was markedly decreased, indicating a role for Notch signaling. During the second part of this thesis, we observed that the impact of Notch on Th17 cell differentiation and effector functions was context-dependent using different in vivo experimental models, in which Th17 cells and IL-17A were reported to contribute in the disease development. Collectively, our data reveal that Notch signaling controls the fine-tuning of Th17 cell differentiation and effector functions by limiting their differentiation but promoting selectively cytokine release through Notch-dependent mechanisms that still need to be defined. -- Lors d'une réponse immunitaire et grâce à la reconnaissance antigénique, les lymphocytes CD4+ T naïfs prolifèrent, puis se différencient en CD4+ T auxiliaires ("T helper" ou Th) fonctionnellement distincts. Chaque sous-population de lymphocytes CD4+ T auxiliaires exprime des facteurs de transcription et des cytokines spécifiques qui coordonnent la réponse immunitaire contre les pathogènes rencontrés. Parmi les facteurs influençant la différenciation des lymphocytes CD4+ T auxiliaires, la voie de signalisation Notch a été identifiée comme ayant un rôle dans la différenciation et la fonction des différents sous-types de cellules CD4+ T auxiliaires. La voie de signalisation Notch est une voie évolutivement conservée, qui est impliquée dans la signalisation entre les cellules et dans de nombreux processus de décisions cellulaires. La manière dont la voie de signalisation Notch régule la différenciation des lymphocytes CD4+ T en sous-types de cellules CD4+ auxiliaires, mais également la question de savoir si la voie de signalisation Notch est capable ou non d'induire la différenciation des cellules CD4+T auxiliaires, restent à débattre. Les cellules T auxiliaires 17 (Th17) sont un sous-type distinct de cellules CD4+T. Elles jouent un rôle important dans la défense immunitaire contre des pathogènes tels que les bactéries extracellulaires et les champignons. Une dérégulation de la réponse des cellules Th17 peut conduire à des inflammations mais également à des maladies auto-immunes. Les cellules Th17 sont définies par l'expression de leurs facteurs de transcription RAR-related orphan receptor (ROR)a, RORyT et par la sécrétion de cytokines comme IL-17A, IL-17F. Le rôle de la voie de signalisation Notch dans la différenciation des cellules Th17 a principalement été démontré in vitro. Malgré tout, ni les conditions expérimentales dans lesquelles cette voie pourrait être impliquée dans la différenciation des cellules Th17 in vitro et in vivo, mais également ni la fonction exacte de Notch dans ces processus, ne sont des questions résolues. Afin de mieux définir comment la voie de signalisation Notch est impliquée dans la différenciation des cellules Th17, nous avons utilisé des souris avec une déficience spécifique dans les cellules T des récepteurs Notchl et Notch2 (N1N2ACD4Cre) ou du répresseur transcriptionnel de Notch RBP-JK (RBP-J ACD4Cre). Nous avons montré que lorsque la voie de signalisation Notch est déficiente, les niveaux d'ARN messager (ARNm) de RORyT et de IL-17A sont augmentés dans les cellules Th17 pendant la différenciation in vitro, en présence de niveaux réduits des signaux activant les cellules T CD4+. Une augmentation dans les niveaux d'ARNm de IL-17A et de IL-17A intracellulaire au niveau protéinique a été observée dans les cellules T CD4+ Notch déficientes, au niveau des ganglions drainants après immunisation avec l'OVA dans le CFA, un adjuvant induisant une réponse des cellules Th17. Nos résultats suggèrent que Notch pourrait réguler négativement l'expression de IL-17A au niveau transcriptionnel mais également protéinique. Malgré une augmentation de IL-17A au niveau de l'ARNm et protéinique dans les cellules CD4+ T Notch déficientes, paradoxalement la sécrétion de IL-17A mais également de cytokines associées aux fonctions effectrices des cellules Th17 sont profondément diminuées 6X vivo, suggérant un rôle de la voie de signalisation Notch dans ce processus. Dans la deuxième partie de ce travail de thèse, nous avons observé que l'impact de Notch dans la différenciation des cellules Th17 et dans leurs fonctions effectrices était dépendant du contexte dans d'autres modèles expérimentaux in vivo, où les cellules Th17 et l'IL-17A ont été identifiées comme ar-.riCociêSM dans le développement ds la pathologie. En résumé, nous avons montré que la voie de la signalisation Notch contrôle la régulation précise de la différenciation des cellules Th17 en limitant leur différenciation, mais en promouvant sélectivement leur relâchement en cytokines associés aux cellules Th17 par l'intermédiaire de mécanismes dépendant de Notch, qui restent toujours à déterminer. -- Lors d'une réponse immunitaire et grâce à la reconnaissance antigénique, les lymphocytes CD4+ T naïfs prolifèrent, puis se différencient en CD4+ T auxiliaires ("T helper" ou Th) fonctionnellement distincts. Chaque sous-population de lymphocytes T auxiliaires exprime des facteurs de transcription et des cytokines spécifiques qui coordonnent une réponse immunitaire contre différents pathogènes. Les mécanismes liés à la différenciation des lymphocytes CD4+ T auxiliaires sont complexes et régulés. Une mauvaise régulation de la différenciation des lymphocytes CD4+ T auxiliaires peut conduire à des maladies auto-immunes, mais également à des processus inflammatoires. Parmi les facteurs influençant la différenciation des lymphocytes T auxiliaires, la voie de signalisation Notch a été identifiée comme ayant un rôle dans la différenciation et la fonction des différents sous-types de cellules CD4+ T auxiliaires. La voie de signalisation Notch est une voie évolutivement conservée, qui est impliquée dans la signalisation entre les cellules, mais également dans de nombreux processus de décisions cellulaires. Quelle est l'implication de la voie de signalisation Notch dans la différenciation des lymphocytes CD4+ en sous-types de cellules CD4+T auxiliaires et comment cette voie agit dans ce processus, sont des questions débattues. Les cellules T auxiliaires 17 (Th17) sont une sous-population distincte de lymphocytes CD4+. Elles jouent un rôle important dans la défense immunitaire contre les bactéries extracellulaires et les champignons. Une dérégulation de la réponse des cellules Th17 a été associée à des maladies auto-immunes et à l'inflammation. Les cellules Th17 sont définies par l'expression du facteur de transcription RAR-related orphan receptor (ROR)yT et des cytokines comme IL-17A, IL-17F. Le rôle de la voie de signalisation Notch dans la différenciation des cellules Th17 a été principalement démontré dans des études expérimentales in vitro. Malgré tout, les conditions expérimentales exactes dans lesquelles la voie de signalisation de Notch pourrait être impliquée dans la différenciation des cellules Th17, mais également le rôle de Notch dans ce processus ne sont pas encore clairement élucidés. Afin de mieux définir comment la voie de signalisation Notch est impliquée dans la différenciation des cellules Th17, nous avons utilisé des souris avec une déficience spécifique dans les cellules T des récepteurs Notchl et Notch2 (N1 N2ACD4Cre) ou du répresseur transcriptionnel de Notch RBP-JK (RBP-JACD4CRE). Nous avons montré que lorsque la voie de signalisation Notch est déficiente, les niveaux d'ARN messager (ARNm) de RORyT et de IL-17 sont augmentés dans les cellules Th17 pendant leur différenciation in vitro. Cet effet de Notch sur la transcription apparaît être facultatif lorsque les conditions environnementales sont en excès in vitro. Après immunisation avec un adjuvant qui induit principalement une réponse des cellules Th17, nous avons observé que les niveaux de ARNm de IL-17A et aussi de IL-17A intracellulaire au niveau protéinique étaient augmentés dans les ganglions drainants dans les cellules CD4+ Notch déficientes. Ces résultats suggèrent que Notch pourrait réguler négativement l'expression de IL- 17 au niveau transcriptionnel mais également protéinique. Malgré des niveaux plus élevés de IL- 17 ARNm et aussi IL-17A intracellulaire dans les cellules T Notch déficientes, le relâchement en cytokines Th17 est profondément diminué indiquant un rôle de la voie de signalisation Notch dans ces processus de sécrétion. Dans la deuxième partie de cette thèse, nous avons observé que le rôle de Notch dans ia différenciation dss cellules Ti,17 et dans leurs fonctions effectrices était dépendant du contexte dans d'autres modèles expérimentaux, qui ont été rapportés comme une réponse induisant des cellules Th17. En résumé, nos données montrent que la voie de la signalisation Notch contrôle la régulation précise de la différenciation des cellules Th17 en limitant leur différenciation mais en promouvant sélectivement le relâchement en cytokines associées aux cellules Th17 par des mécanismes dépendant de Notch qui restent toujours à déterminer. Par conséquent, l'inhibition de la voie de signalisation Notch pourrait être utilisée dans des situations inflammatoires ou d'auto-immunité où la réponse des cellules Th17 est exacerbée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scène de phénoménalisation de Chelsea Manning, l'espace public est aussi son lieu de naissance. En effet, le 22 août 2013, Bradley Manning, ex-analyste du renseignement en Irak alors incarcéré dans une prison militaire américaine pour avoir délivré des documents confidentiels à WikiLeaks, fait savoir dans un communiqué de presse remis à la NBC qu'il se sent avoir toujours été une femme. Il demande également à être désigné désormais sous le prénom de « Chelsea ». Cette auto-déclaration identitaire de genre est en réalité proférée par la journaliste du Today Show, lors de l'entretien qu'elle mène avec l'avocat de Manning. Une fois la demande transmise, la journaliste et l'avocat se réfèrent à Manning au féminin. C'est ainsi qu'un plateau de télévision s'est transformé en la scène d'une transition de genre. Mais l'annonce de Manning a eu des effets, durables, bien au-delà de cette scène locale. Ainsi, au sein de la scène globale qu'est l'encyclopédie en ligne Wikipédia, les contributeurs ont débattu, parfois avec acharnement, de l'opportunité de renommer la page de l'article intitulé « Bradley Manning » pour consacrer sa féminité nouvellement acquise. Sur la base d'une analyse énonciative, notre article montre comment le Today Show du 22 août 2013 a transformé la déclaration de Manning en un performatif. Restituant la trajectoire d'(in)félicité de ce performatif, il s'attache également à ethnographier les pages « discussion » de la Wikpédia anglophone et francophone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article montre, en premier lieu, que le degré d'investissement politico-moral des policières et des policiers dans leur métier est fortement variable. Si une partie des individus nouvellement entrés dans la police expriment un sentiment de distance sociale doublé d'une distinction morale par rapport à la population, d'autres ne s'investissement pas dans leur métier comme dans une « croisade morale » (Becker, 1985 [1963]), et estiment au contraire que les justiciables appartiennent à la même « communauté morale » (Fassin, 2011, p. 313) qu'eux-mêmes. La perspective adoptée prolonge ainsi les critiques des approches classiques de la « culture policière », qui ont démontré leur caractère trop uniformisant et leurs biais mécaniste. Parmi les études de sociologie de la police n'ayant pas adopté une telle approche, celle de W. Ker Muir (1977), pourtant ancienne, a montré que tous les policiers ne vivaient pas leur appartenance au groupe professionnel sur le mode d'une distinction morale d'avec les justiciables. Aucune autre étude n'a pourtant traité des variations dans l'investissement politico moral des policières et des policiers, et n'a donc tenté d'en fournir des explications. Le second axe d'analyse vise ainsi à combler ce déficit explicatif, en montrant que l'investissement politico-moral dans le métier dépend largement de la trajectoire antérieure des individus recrutés dans la police, en particulier des expériences de pertes de statut qu'ils ont pu subir, ainsi que du type de stratégies d'ascension sociale ou de récupération de ce statut qu'ils mettent en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique de l'hypnose dans le Centre St-Martin amène un certain nombre de questions sur la valeur de celle-ci en tant que thérapie. En partant des idées - voire des idéologies - que l'hypnose induit chez nos contemporains, nous allons tenter de montrer qu'il s'agit d'une thérapie naturelle, indolore et efficace, qu'elle n'a rien de magique, et ...qu'on l'utilise sans le savoir !

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fin de la mortalité due au vieillissement biologique est annoncée, et avec elle de grands bouleversements de la condition humaine, traditionnellement caractérisée par sa finitude. Fantasme futuriste ou engagement concret, le transhumanisme est désigné comme la bannière sous laquelle des biologistes, philosophes, gérontologues ou entrepreneurs préparent cette révolution. Cet article considère le transhumanisme avant tout comme un mouvement d'idées, dont les militants promeuvent un futur de l'humanité transformé par la technologie. Il montre ensuite que l'épistémologie mobilisée par les transhumanistes dans leur recherche de l'immortalité est guidée par une curiosité avide, mais reste fondée sur un savoir cumulatif intrinsèquement lacunaire. Il propose enfin d'envisager le transhumanisme non comme un fantasme de la toute-puissance humaine, mais comme une relation de confiance fragile avec des objets techniques retardataires, traces d'un futur récalcitrant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de recherche vise à explorer le lien entre l'interprétation des mécanismes de défense, élément fondamental de la technique psychanalytique, et l'alliance thérapeutique. Il a été démontré que celle-ci est un prédicteur robuste des résultats en psychothérapie, indépendamment des modalités de traitement et des types de patients. Dans la littérature, quelques liens positifs ont déjà pu être établis entre l'interprétation en général et le développement de l'alliance thérapeutique en psychothérapie psychanalytique. Nous avons choisi de regarder de plus près quelle forme peut prendre ce lien et quelle peut être la valeur de l'interprétation lors des processus de fluctuation de l'alliance thérapeutique qui sont conceptualisés comme séquences de rupture et de résolution de l'alliance. Nous nous sommes particulièrement intéressés aux effets de la concentration des interventions du thérapeute sur l'interprétation des mécanismes de défense déployés par le patient à ces moments-là. Nous avons choisi des patients (n=17) en traitement psychodynamique dans lequel l'alliance thérapeutique, mesurée après chaque séance au moyen de l'Echelle d'alliance aidante (Haq), montrait une séquence de rupture et résolution. Deux séances « contrôle » (5ème et 15èm<>) ont également été sélectionnées. Les interventions du thérapeute ont été examinées et qualifiées à l'aide du 'Psychodynamic Intervention Rating Scale' et de l'Echelle d'évaluation des mécanismes de défense afin d'identifier parmi elles celles qui portaient sur l'interprétation des mécanismes de défense. Nous n'avons pas trouvé de différences significatives entre les séances de rupture, les séances de résolution et les séances de contrôle en ce qui concerne la fréquence relative des trois grandes catégories d'interventions thérapeutiques, à savoir l'interprétation, le soutien et la définition du cadre. Par contre, comparées aux séances de contrôle, les séances de rupture de l'alliance thérapeutique étaient caractérisées par moins d'interprétations des défenses et particulièrement des défenses « intermédiaires » (essentiellement névrotiques). Les séances de résolution de l'alliance thérapeutique étaient caractérisées par la présence de plus d'interprétations des défenses « intermédiaires ». Ces résultats soutiennent l'hypothèse de l'existence d'un lien entre des éléments spécifiques de la technique utilisés dans le travail clinique et le processus de l'alliance thérapeutique en psychothérapie psychodynamique. Sur la base de la littérature on peut considérer que, en partie au moins, une interprétation précise et faite au moment opportun peut avoir un effet favorable sur l'alliance thérapeutique. Nos résultats indiquent que c'est la concentration des interprétations sur les mécanismes de défense (par rapport à d'autres éléments, comme les pulsions ou l'affect) qui est la plus succeptible d'être associée au développement de l'alliance. Ceci est en accord avec une longue tradition en psvchothérapie psychanalytique qui considère que la mise à jour des motions refoulées est principalement realisée au moyen de la défaite des résistances. Viser en particulier les défenses "intermédiaires" dans ce type de travail peut être vu comme un moyen de réengager le patient dans le processus d'exploration commune auquel les défenses de ce niveau peuvent faire obstacle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de recherche se concentrera sur un phénomène en particulier : le fossé urbain - rural. Le terme de « fossé » a été privilégié à celui de « clivage ». En effet, un clivage, tout comme un fossé, correspond à une opposition observable, entre deux groupes sociaux, lors des votations fédérales. Lorsque celui-ci est nommé « urbain - rural », il correspondant à une opposition entre les communes urbaines et rurales. Pour des raisons de clarté et d'exactitude le terme de fossé urbain - rural sera gardé pour rendre compte, au plus juste, de l'opposition entre les communes urbaines et rurales dans le but de rester fidèle à l'observation du comportement de vote. Cette recherche empirique a deux ordres d'intérêt : politologique et scientifique (méthodologique). L'intérêt politologique est de répondre à la question, peu traitée dans la littérature en sciences sociales et administratives, de savoir si le fossé urbain - rural est un phénomène d'actualité dans l'explication du comportement de vote en Suisse. Si tel est le cas, il permettra de déterminer pour quels facteurs, liés à la démocratie directe, il est pertinent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce travail est de chercher à savoir si la question du rationnement, plus particulièrement implicite, se pose dans le domaine de la psychiatrie. Comment ce phénomène est-il appréhendé et quelles formes peut-il prendre dans les faits? Nous avons souhaité établir quels facteurs pouvaient constituer les indicateurs les plus pertinents pour mettre en évidence un rationnement implicite dans le contexte suisse actuel. Méthode: Notre premier instrument de recherche a été une série d'entretiens semi-structurés avec principalement des médecins psychiatres et accessoirement des représentants d'associations de patients et de leurs proches.* Nous avons rencontré des psychiatres généralistes et spécialistes (n= 12 + 2 contacts téléphoniques), travaillant en institution et/ou installés en privé ainsi que des informateurs exprimant les perspectives des patients et de leur entourage (n=2 + 2 contacts téléphoniques). L'analyse intermédiaire des entretiens a permis d'identifier les clés de compréhension des enjeux principaux entrant dans l'identification de processus de rationnement et guider la recherche de données factuelles pertinentes. Notre deuxième source d'information a constitué en rapports de commission, bulletins d'activité ainsi que d'articles de la presse nationale hebdomadaire et quotidienne consultés via internet selon les mots-clé de « rationnement » et de « psychiatrie ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma recherche porte sur la crise et les diverses transformations subies par la théocratie en tant que modèle politique en Europe dans la première moitié du XVIIIe siècle. Mon attention se concentre sur la remise en question de la valeur normative, à savoir sacrée, que ce modèle avait acquis au cours du XVIe et du XVIIe siècle, et sur sa transformation en un modèle universel et «négatif» au cours de la première partie du XVIIIe siècle. L'analyse du modèle théocratique n'a pas fait, jusqu'à présent, l'objet de nombreuses études de la part des historiens de la pensée politique moderne. Il est resté au centre de la réflexion d'autres domaines d'études. Seulement, depuis les années 1990, certaines études historiographiques ont montré l'existence, au cours des XVIe et XVIIe siècles, d'un grand intérêt autour de la normatività du modèle théocratique. L'analyse portait sur une série de traités relatifs à l'utilisation politique de la théocratie juive, c'est-à-dire le gouvernement de l'ancien Israël ou respublica Hebraeorum, telle qu'elle était décrite dans le texte sacré. La limite de ces études est cependant d'avoir analysé seulement « l'âge d'or » de cette littérature, à savoir les XVIe et XVIIe siècles. Ils ont identifié dans le Tractatus Theo logico -Poäücus de Spinoza le déclin de l'intérêt européen pour ce modèle politique. Ma recherche vise à mettre en évidence l'évolution de la façon de considérer la théocratie en tant que. modèle politique en Europe au XVIIIe siècle, dans le but de démontrer que le Tractatus Theologico- Poäticus n'a pas signé son déclin définitif en Europe en soulignant comment le débat politique de cette époque a été caractérisé par un fort intérêt politique pour la théocratie. En particulier mon analyse porte sur trois moments différents. La première partie de mon étude concerne la remise en question de la valeur positive et normative du modèle, théocratique juif à travers son historicisation. A cet effet, je me concentre sur trois figures emblématiques, à savoir Giambattista Vico, John Toland et Jacques Basnage en démontrant comment ce trois auteurs, chacun de leur côté, ont contribué au renversement de l'image classique de la respublica Hebraeorum. Dans un deuxième temps mon étude analyse la phase de radicalisation de ces changements au milieu du XVIIIe siècle et, en particulier, dans les ouvrages de Nicolas Antoine Boulanger, les Recherches sur l'origine du despotisme oriental (1761) et l'Antiquité dévoilée par ses usags (1765). Boulanger fut le premier à fournir une explication de la naissance des différentes formes de gouvernements politiques et des différentes religions en se référant à de grandes catastrophes géologiques, notamment le Déluge. La théocratie s'explique ainsi par un millénarisme aigu suite à l'expérience catastrophique de l'inondation. Le modèle décrite par Boulanger se distingue clairement de celui de la littérature, précédente. La théocratie subit un déplacement sémantique de modèle politique associé à l'histoire juive avec une connotation «positive» à un modèle universel à connotation totalement la «négative». Dans cette transition, qui s'est produite de manière progressive entre le XVIIe et le XVIIIe siècle, le modèle biblique perd sa principale caractéristique, à savoir sa sacralité. La troisième et dernière partie de cette étude est une brève description de l'héritage du modèle théocratique dans XEncyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. En particulier, l'analyse se concentre sur l'article «Théocratie» et l'article «OEconomie politique». Ma recherche vise à montrer les éléments en commun de ces deux articles avec les ouvrages de Boulanger. Ces deux contributions sont présentées dans mon travail comme un moyen de transmission de la pensée de Boulanger dans l'Encyclopedie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In my thesis, I defend the idea that Aristotle's notion of phronêsis (practical wisdom) is best understood as a kind of practical knowledge. I interpret phronêsis as the knowledge we display when we make the correct decision to act. In a particular situation that demands a specific response, we have practical knowledge of what to do when we make the best decision possible. This interpretation of phronêsis involves that it is possible to evaluate our decisions epistemically, that is, to evaluate whether we really know what to do or not. Aristotle provides a tool for the evaluation of our decisions, which is a definite kind of argument and which the tradition has called the 'practical syllogism'. The practical syllogism stands as the explanation of our decisions or actions. We invoke it when we want to explain or justify why we act as we do. My claim is that the components of the practical syllogism enable one to evaluate not only the moral character of our actions, but also the epistemic strength of our decisions. Correspondingly, a decision is morally right, i.e. virtuous, if the agent considers the right moral principle to apply, and if he is aware of the relevant circumstances of the situation (moral evaluation). Moreover, a decision displays practical knowledge if the agent meets three conditions (epistemic evaluation): he must desire the moral principle for its own sake; he must have experience in spotting the relevant circumstances of the situation; and he must be able to closely connect these circumstances with the moral principle. This interpretation of phronêsis differs from other more traditional interpretations in the emphasis it puts on phronêsis as knowledge. Other interpretations focus more on the moral dimension on phronêsis, without taking its epistemic value seriously. By contrast, I raise seriously the question of what it takes to genuinely know what one should do in a particular situation. -- Dans ma thèse, je défends l'idée que la notion aristotélicienne de phronêsis (sagesse pratique) doit être interprétée comme connaissance pratique. Je comprends la phronêsis comme étant la connaissance que nous avons lorsque nous prenons une bonne décision. Dans une situation particulière qui demande une réponse précise, nous avons une connaissance pratique lorsque nous prenons la meilleure décision possible. Cette interprétation de la phronêsis implique qu'il est possible d'évaluer nos décisions de manière épistémique, c'est-à-dire, d'évaluer si nous savons vraiment ce qu'il faut faire ou non. Ma position est qu'Aristote fournit un outil pour évaluer épistémiquement nos décisions, qui consiste en un certain type d'argument et que la tradition a appelé le 'syllogisme pratique'. Le syllogisme pratique correspond à l'explication de nos décisions ou de nos actions. Nous invoquons un syllogisme pratique lorsque nous voulons expliquer ou justifier pourquoi nous agissons comme nous le faisons. Les éléments du syllogisme pratique permettent d'évaluer non seulement le caractère moral de nos actions, mais aussi la force épistémique de nos décisions. Par conséquent, une décision est moralement correcte, i.e. vertueuse, si l'agent considère le bon principe moral, et s'il est attentif aux circonstances pertinentes de la situation (évaluation morale). En outre, une décision inclut la connaissance pratique si l'agent remplit trois conditions (évaluation épistémique) : il doit désirer le principe moral pour lui-même, il doit avoir de l'expérience pour déceler les circonstances pertinentes, et il doit pouvoir lier intimement ces circonstances avec le principe moral. Cette interprétation de la phronêsis diffère d'autres interprétations plus traditionnelles par l'emphase mise sur la phronêsis en tant que connaissance. D'autres interprétations se concentrent plus sur la dimension morale de la phronêsis, sans se préoccuper sérieusement de sa valeur épistémique. Au contraire, je pose sérieusement la question des conditions nécessaires pour réellement savoir ce qu'il faut faire dans une situation donnée.