999 resultados para Savoir écologique traditionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma recherche porte sur la crise et les diverses transformations subies par la théocratie en tant que modèle politique en Europe dans la première moitié du XVIIIe siècle. Mon attention se concentre sur la remise en question de la valeur normative, à savoir sacrée, que ce modèle avait acquis au cours du XVIe et du XVIIe siècle, et sur sa transformation en un modèle universel et «négatif» au cours de la première partie du XVIIIe siècle. L'analyse du modèle théocratique n'a pas fait, jusqu'à présent, l'objet de nombreuses études de la part des historiens de la pensée politique moderne. Il est resté au centre de la réflexion d'autres domaines d'études. Seulement, depuis les années 1990, certaines études historiographiques ont montré l'existence, au cours des XVIe et XVIIe siècles, d'un grand intérêt autour de la normatività du modèle théocratique. L'analyse portait sur une série de traités relatifs à l'utilisation politique de la théocratie juive, c'est-à-dire le gouvernement de l'ancien Israël ou respublica Hebraeorum, telle qu'elle était décrite dans le texte sacré. La limite de ces études est cependant d'avoir analysé seulement « l'âge d'or » de cette littérature, à savoir les XVIe et XVIIe siècles. Ils ont identifié dans le Tractatus Theo logico -Poäücus de Spinoza le déclin de l'intérêt européen pour ce modèle politique. Ma recherche vise à mettre en évidence l'évolution de la façon de considérer la théocratie en tant que. modèle politique en Europe au XVIIIe siècle, dans le but de démontrer que le Tractatus Theologico- Poäticus n'a pas signé son déclin définitif en Europe en soulignant comment le débat politique de cette époque a été caractérisé par un fort intérêt politique pour la théocratie. En particulier mon analyse porte sur trois moments différents. La première partie de mon étude concerne la remise en question de la valeur positive et normative du modèle, théocratique juif à travers son historicisation. A cet effet, je me concentre sur trois figures emblématiques, à savoir Giambattista Vico, John Toland et Jacques Basnage en démontrant comment ce trois auteurs, chacun de leur côté, ont contribué au renversement de l'image classique de la respublica Hebraeorum. Dans un deuxième temps mon étude analyse la phase de radicalisation de ces changements au milieu du XVIIIe siècle et, en particulier, dans les ouvrages de Nicolas Antoine Boulanger, les Recherches sur l'origine du despotisme oriental (1761) et l'Antiquité dévoilée par ses usags (1765). Boulanger fut le premier à fournir une explication de la naissance des différentes formes de gouvernements politiques et des différentes religions en se référant à de grandes catastrophes géologiques, notamment le Déluge. La théocratie s'explique ainsi par un millénarisme aigu suite à l'expérience catastrophique de l'inondation. Le modèle décrite par Boulanger se distingue clairement de celui de la littérature, précédente. La théocratie subit un déplacement sémantique de modèle politique associé à l'histoire juive avec une connotation «positive» à un modèle universel à connotation totalement la «négative». Dans cette transition, qui s'est produite de manière progressive entre le XVIIe et le XVIIIe siècle, le modèle biblique perd sa principale caractéristique, à savoir sa sacralité. La troisième et dernière partie de cette étude est une brève description de l'héritage du modèle théocratique dans XEncyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. En particulier, l'analyse se concentre sur l'article «Théocratie» et l'article «OEconomie politique». Ma recherche vise à montrer les éléments en commun de ces deux articles avec les ouvrages de Boulanger. Ces deux contributions sont présentées dans mon travail comme un moyen de transmission de la pensée de Boulanger dans l'Encyclopedie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In my thesis, I defend the idea that Aristotle's notion of phronêsis (practical wisdom) is best understood as a kind of practical knowledge. I interpret phronêsis as the knowledge we display when we make the correct decision to act. In a particular situation that demands a specific response, we have practical knowledge of what to do when we make the best decision possible. This interpretation of phronêsis involves that it is possible to evaluate our decisions epistemically, that is, to evaluate whether we really know what to do or not. Aristotle provides a tool for the evaluation of our decisions, which is a definite kind of argument and which the tradition has called the 'practical syllogism'. The practical syllogism stands as the explanation of our decisions or actions. We invoke it when we want to explain or justify why we act as we do. My claim is that the components of the practical syllogism enable one to evaluate not only the moral character of our actions, but also the epistemic strength of our decisions. Correspondingly, a decision is morally right, i.e. virtuous, if the agent considers the right moral principle to apply, and if he is aware of the relevant circumstances of the situation (moral evaluation). Moreover, a decision displays practical knowledge if the agent meets three conditions (epistemic evaluation): he must desire the moral principle for its own sake; he must have experience in spotting the relevant circumstances of the situation; and he must be able to closely connect these circumstances with the moral principle. This interpretation of phronêsis differs from other more traditional interpretations in the emphasis it puts on phronêsis as knowledge. Other interpretations focus more on the moral dimension on phronêsis, without taking its epistemic value seriously. By contrast, I raise seriously the question of what it takes to genuinely know what one should do in a particular situation. -- Dans ma thèse, je défends l'idée que la notion aristotélicienne de phronêsis (sagesse pratique) doit être interprétée comme connaissance pratique. Je comprends la phronêsis comme étant la connaissance que nous avons lorsque nous prenons une bonne décision. Dans une situation particulière qui demande une réponse précise, nous avons une connaissance pratique lorsque nous prenons la meilleure décision possible. Cette interprétation de la phronêsis implique qu'il est possible d'évaluer nos décisions de manière épistémique, c'est-à-dire, d'évaluer si nous savons vraiment ce qu'il faut faire ou non. Ma position est qu'Aristote fournit un outil pour évaluer épistémiquement nos décisions, qui consiste en un certain type d'argument et que la tradition a appelé le 'syllogisme pratique'. Le syllogisme pratique correspond à l'explication de nos décisions ou de nos actions. Nous invoquons un syllogisme pratique lorsque nous voulons expliquer ou justifier pourquoi nous agissons comme nous le faisons. Les éléments du syllogisme pratique permettent d'évaluer non seulement le caractère moral de nos actions, mais aussi la force épistémique de nos décisions. Par conséquent, une décision est moralement correcte, i.e. vertueuse, si l'agent considère le bon principe moral, et s'il est attentif aux circonstances pertinentes de la situation (évaluation morale). En outre, une décision inclut la connaissance pratique si l'agent remplit trois conditions (évaluation épistémique) : il doit désirer le principe moral pour lui-même, il doit avoir de l'expérience pour déceler les circonstances pertinentes, et il doit pouvoir lier intimement ces circonstances avec le principe moral. Cette interprétation de la phronêsis diffère d'autres interprétations plus traditionnelles par l'emphase mise sur la phronêsis en tant que connaissance. D'autres interprétations se concentrent plus sur la dimension morale de la phronêsis, sans se préoccuper sérieusement de sa valeur épistémique. Au contraire, je pose sérieusement la question des conditions nécessaires pour réellement savoir ce qu'il faut faire dans une situation donnée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S'inscrivant dans le sous-domaine interdisciplinaire de l'Urban Political Ecology (UPE), cette thèse dresse une géo-histoire foucauldienne de l'eau urbaine, particulièrement l'eau en réseau, en Suisse entre 1850 et nos jours. Plus précisément, il s'agit d'une étude des modes d'exercice du pouvoir (les formes de gouvernementalité) et de leurs outils (les technologies de pouvoir), focalisée sur l'eau en réseau et menée à l'aide d'une méthode archéogénéalogique. Cette recherche apporte des contributions théoriques et empiriques à l'UPE. Du côté théorique, elle propose l'adoption d'une approche foucauldienne dans le domaine de l'UPE, elle définit le potentiel et les implications de son éthique de la recherche et elle décrit certains parmi les principaux concepts, théories et méthodes foucauldiens mobilisables au sein de l'UPE de l'eau. Du côté empirique, elle applique l'approche proposée à une série d'études de cas, permettant de dresser la géo-histoire mentionnée plus haut mais aussi de nuancer le cadre théorique et méthodologique, de l'enrichir et d'en pointer les limites. A travers l'étude d'archives de la presse locale, les trois premières études de cas montrent que deux formes de gouvernementalité ont coexisté en Suisse pendant la période étudiée, à savoir le biopouvoir et la gouvernementalité néolibérale. Cependant, ces deux formes de gouvernementalité dévient considérablement des modèles proposés par Michel Foucault. Par exemple, des technologies de pouvoir permettant le gouvernement à distance relatives à la santé de la population ont fait leur apparition dès la deuxième moitié du dix-neuvième siècle, ce qui interroge la définition du biopouvoir telle qu'elle avait initialement été proposée par Michel Foucault. La dernière étude de cas est centrée sur l'époque contemporaine. Elle indique qu'à l'heure actuelle une production centralisée d'argumentaires destinés aux citoyens-consommateurs a lieu dans des espaces non-statutaires d'inspiration néolibérale (les soft spaces). Cette production discursive centralisée se révèle efficace et contribue, paradoxalement, au maintien d'un modèle helvétique décentralisé et démocratique en matière d'eau du robinet. Des recherches ultérieures pourraient permettre de tester la pertinence de l'approche foucauldienne adoptée ici dans d'autres cas d'étude, de nuancer et enrichir ultérieurement le cadre théorique et d'améliorer la méthode utilisée.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les villes sont bousculées par trois grandes révolutions en cours, qui vont les transformer durablement. La transition écologique contraint chacune à économiser les ressources, et à trouver les moyens d'assurer à toutes les populations une meilleure qualité de vie au quotidien. La mondialisation soumet toutes les villes à des restructurations économiques sous l'impulsion de transferts financiers de plus en plus ra- pides. Les technologies numériques bouleversent tout autant les modes de vie et de gestion de la ville que les conditions de production et d'interprétation des informations. En décryptant de nouvelles données urbaines, diverses et massives, cet ouvrage montre comment les villes, leurs gouvernements, leurs entreprises comme leurs habitants, s'adaptent à toutes ces transformations en profondeur. Il se divise en six grands chapitres, regroupant chacun des articles mis à la portée du grand public par des spécialistes, sur les politiques urbaines, la vie en ville, les structures spatiales et sociales, l'économie, le fonctionnement des villes en système et l'environnement urbain. La continuité de ces thèmes avec ceux des volumes précédents de la série permet de mesurer l'importance des transformations inter- venues et souligne à quel point l'adaptation au changement est plus que jamais le moteur de la dynamique des villes. Enseignants, étudiants, décideurs, praticiens de l'urbanisme et simples citoyens y trouveront des clés pour comprendre ces évolutions et y prendre part en toute connaissance de cause.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador: