912 resultados para proposition


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This is the first study to adopt a configurational paradigm in an investigation of strategic management accounting (SMA) adoption. The study examines the alignment and effectiveness of strategic choice and strategic management accounting (SMA) system design configurations. Six configurations were derived empirically by deploying a cluster analysis of data collected from a sample of 193 large Slovenian companies. The first four clusters appear to provide some support for the central configurational proposition that higher levels of vertical and horizontal configurational alignments are associated with higher levels of performance. Evidence that contradicts the theory is also apparent, however, as the remaining two clusters exhibit high degrees of SMA vertical and horizontal alignment, but low performance levels. A particular contribution of the paper concerns its demonstration of the way that the configurational paradigm can be operationalised to examine management accounting phenomena and the nature of management accounting insights that can derive from applying the approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present paper, some species of nematodes from Brazilian parrots are studied: Aproctapyrrhurae. Ascaridia hermaphrodita, A. sergiomeirai, Pelecitus circularis and P. helicinus. Single female specimens of Pelecitus sp. and Thelazia sp. are presented. The male of P. circularis is fully illustrated, for the first time, since 1884. Ascaridia sergiomeirai is also restudied 59 years after proposition. New host records are estabilished. Remarks on other species of nematodes occuring in psittacid birds are included.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé du numéro) Prophéties et visions du futur Notre époque se méfie des prophètes, mais fait confiance aux astrologues, devins et autres voyantes... Y compris dans les plus hautes sphères du pouvoir! Ce surgissement de l'irrationnel dans une société fière de sa "science" laisse perplexe. De telles croyances, dont le caractère païen est parfois souligné, entretiennent dans l'esprit du public une confusion fâcheuse entre prophétie et prédiction. Le prophétisme s'en trouve dévalorisé, alors qu'il a joué à certains moments un rôle décisif dans l'histoire de l'humanité. "L'avez-vous remarqué?", écrivait il y a quelques années Bruno Chenu, "À l'heure actuelle, le thème du prophétisme semble s'être évanoui du paysage, tant social qu'ecclésial. Il n'y a plus grand monde pour se risquer à une interpellation forte, à une mise en cause radicale, à une proposition dérangeante. [...] Nous sommes à l'âge des croyances molles. N'est-il pas grand temps de retrouver, collectivement et personnellement, l'inspiration prophétique?" (1). Le prophète est une figure centrale des religions monothéistes. Il porte la sagesse du message divin que les hommes ne savent pas discerner. Donc, il dérange. Et si sa parole est écoutée, voire sollicitée, dans les périodes d'incertitudes, il devient gênant dès lors que le pouvoir - religieux ou politique - pense avoir repris en main les destinées de la communauté. "L'avenir n'est à personne, sire, l'avenir est à Dieu" rappelle, trop tard!, Victor Hugo à Napoléon 1er. Il est vrai que la condamnation des prophètes est souvent consécutive à une catastrophe déclenchée par de "faux" prophètes. La difficulté à identifier la véritable prophétie a entraîné à plusieurs reprises l'annonce de l'extinction du prophétisme, par les sages juifs au deuxième siècle avant notre ère, ou lorsque le christianisme devient la religion officielle de l'Empire romain. À chaque fois, le prophétisme est réapparu, comme si la religion ne pouvait en faire l'économie. C'est l'une des leçons qui ressort le plus clairement du dossier que nous consacrons au couple tumultueux que constituent prophètes et visions du futur. Le prophète porte aussi les espoirs de l'humanité. Un monde sans prophètes serait-il un monde sans espérance?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Liberalism claims that for a subject S to be justified in believing p, a proposition about the external world, on the basis of his senses it is not necessary to be antecedently justified in believing propositions as there is an external world. On the other hand, conservatism claims that to be justified in believing that p on the basis of one’s perception, one must have antecedent justification to believe that p. Intuitively, we are inclined to think that liberalism about the structure of perceptual justification fits better with our epistemic practices. We acknowledge that, although we cannot produce warrant for the background belief in the external world, our empirical beliefs can be perceptually justified. However, I am interested in arguing that conservatism is theoretically better supported than liberalism. The first reason to defend this is based on the fact that in embracing liberalism dogmatism is affected by pervasive problems. The second one comes from recognizing the strength of the argument based on the thesis that experience is theory-laden. But not all are advantages for conservatism. Conservatism is presupposed in contemporary formulations of scepticism through the requirement of prior justification for background assumptions, and this fact compels anti-sceptical conservatives to conceive a non-evidential form of warrant, entitlement, to contest the sceptical threat My main worry is that, although the path of entitlement has some prospects to succeed, this new notion of justification seems to be posed ad hoc for conservatives to solve the sceptical problem. These contents are organized along the three chapters. The result of chapter 1 is a pattern of sceptical argument formed by two premises: P1*, a conservative principle, and P2*. In chapter 2 and chapter 3 two anti-sceptical proposals against the argument sketched in chapter 1 are described. Chapter 2 is devoted to explain and assess a first anti-sceptical proposal that denies P1*: dogmatism. Moreover, in chapter 3, another anti-sceptical strategy is described (the route of entitlement) that contests scepticism denying the plausibility of P2*.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après des décennies dʼoubli, un document a été retrouvé, qui avait suscité pendant des années la curiosité dʼétudiants byzantinistes et de bien dʼautres qui étaient à sa recherche. Ilsʼagit de la dernière oeuvre de Nikodim Pavlovic Kondakov, le manuscrit « légendaire » cédé au Vatican dans les années 20 et considéré comme disparu. Après la parution de nombreux textes importants, Kondakov avait commencé à publier ses oeuvres de maturité : la grande monographie sur lʼiconographiedu Christ et les trois volumes de sa célèbre Ikonografija Bogomateri (Iconographie de la Mère de Dieu). Alors que les deux premiers volumes de lʼIconographie de la Mère de Dieu furent publiés à Saint Pétersbourg en 1914-1915, la Révolution Russe de 1917 ne permit pas la publication du troisième volume. Kondakov étant en exil, le troisième volume fut acquis par le Vatican. Le manuscrit fut envoyé à lʼInstitutPontifical Oriental de Rome (PIO) en novembre 1926 où il fut traduit en vue dʼune publication qui nʼeut jamais lieu. Dans les archives du PIO, récemment, la traduction a été retrouvée. Même si nous nʼavons plus la trace de son original en russe, cette traduction complète en français nous permet de retrouver un texte fondamental égaré pendant plus de 80 ans. Ce troisième volume a pour objet lʼiconographie de la Vierge Marie dans lʼart italien, de la fin du Moyen-Âge au début de la Renaissance, un sujet que Kondakov avait en partie affronté dans son premier écrit sur lʼiconographie mariale en 1911, et où il exposait déjà sa proposition de lire la peinture de la Renaissance italienne en lien avec la peinture des icônes russes et grecques. La publication de cette oeuvre nous aidera à connaître une importante page de lʼhistoire concernant le rapport complexe et débattu entre Renaissance italienne et intellectuels russes de lʼ « Âge dʼargent ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La notion que le début d'une schizophrénie puisse être marqué par une zone d'ombre aux caractéristiques vagues et aspécifiques n'est pas nouvelle dans l'histoire de la psychiatrie. Cependant, la question de son repérage et des traitements adaptés réapparaît dans les débats psychiatriques au cours de ces dernières années. Beaucoup d'efforts sont actuellement déployés pour repérer les phases prodromales à travers des outils très différents pour ce qui est de la conceptualisation dont ils sont issus (psychiatrique, psychologique ou phénoménologique). Il n'est néanmoins pas clair quelle proposition psychothérapeutique pourrait mieux profiter à ces patients, pour qui il est le plus souvent question d'un malaise aspécifique, du registre relationnel et existentiel, et pas encore d'une « maladie » stricto sensu. Dans cet article, à l'aide d'un suivi psychothérapeutique d'un jeune patient à risque de psychose, la question de la psychothérapie des prodromes est esquissée en essayant d'articuler la notion de symptômes de base, concept psychologique issu des travaux de Huber et Gross, avec une compréhension psychanalytique et d'inspiration phénoménologique. Les symptômes de base et leur transformation possible dans le processus psychothérapeutique sont décrits ainsi dans la perspective d'une théorie de la réparation de l'appareil à penser et de l'intersubjectivité de la dyade thérapeutique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present paper reports acuarioid nematodes recovered from avian hosts. A new species of the genus Schistorophus Railliet, 1916 is proposed based mainly on findings referring to ptilina, spicules and vagina. Ancyracanthopsis coronata (Molin, 1860) Chabaud & Petter, 1959 is referred again in Brazil since its proposition in 1860, from specimens recovered from a Brazilian bird. A revised key to the species of the genus Schistorophus is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectiu d’aquesta fitxa tècnica és la difusió de la metodologia Anàlisi de Cicle de Vida, ACV, com a mètode per avaluar ambientalment l’agricultura ecològica, detectar els punts febles i aportar alternatives. Els estudis d’ACV utilitzen la metodologia proposada per les normatives ISO (ISO-14040, 2006; ISO-14044, 2006). Els estudis previs que l’han aplicat avalen la metodologia, mostrant que l’eina ACV reuneix les característiques d’objectivitat i transparència per a l’estudi de l’impacte ambiental de la producció agrària ecològica. Existeixen, però, aspectes metodològics poc desenvolupats que requeriran de futura recerca i que resumim en aquesta fitxa. Aspectes principalment relacionats amb la necessitat de bases de dades locals per una correcta realització dels inventaris i consens en les metodologies per anàlisis d’impactes relacionats principalment amb l’ús del sòl, biodiversitat i toxicitat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arts Fusió és un projecte pedagògic entorn a la transdisciplinarietat artística, consistent en una recerca al voltant d'aquest concepte i dels valors formatius que aporta en processos d'aprenentatge creatiu. A partir d'aquí hem creat uns principis metodològics per orientar una didàctica cap a la fusió del teatre, la dansa, la música i les arts visuals. Per posar de manifest els beneficis de la nostra proposta hem realitzat aplicacions didàctiques en educacio artística superior i en educació secundària obligatòria. Metodològicament ens situem en el paradigma de la complexitat i basem les intervencions en una perspectiva qualitativa exploratòria, en concret dintre de la línia de la investigació avaluativa. Com a resultats del treball hem vist que la transdisciplinarietat artística pot actuar com a mitjà i com a fi educatiu segons el context en el que ens trobem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syphacia muris worm burdens were evaluated in the rat Rattus norvegicus of the strains Wistar (outbred), Low/M and AM/2/Torr (inbred), maintained conventionally in institutional animal houses in Brazil. Morphometrics and illustration data for S. muris recovered from Brazilian laboratory rats are provided for the first time since its proposition in 1935.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This doctoral thesis proposes an International Criminal Court Specialized in Economic Crime (ICC/EC) as a solution to the main obstacles to the effectiveness of international anti-corruption conventions studied. In fact, the dispute settlement systems of the international anti-corruption Conventions do not provide sufficient guarantees of effectiveness, and offenses and crimes of corruption are not under the jurisdiction of the International Criminal Court (ICC) derived from the Rome Statute of 2000. In a first part, this work analyzes seven international anti-corruption Conventions adopted between 1996 and 2003, respectively, by the Organization of American States (OAS), the Organization for Economic Cooperation and Development (OECD), the European Union (EU), the Council of Europe (CoE), the African Union (AU) and the United Nations (UN). In a second part, this study highlights a deficit of rationalization and optimization of offenses included in the conventions: an incomplete criminalization of legal persons for corruption, an equally insufficient criminalization for corruption of political leaders benefiting both from criminal and civil immunities, as well as the limited outcome of international asset recovery de-rived from corruption. Finally, given the previous analysis made, this thesis concludes with a pro-posal for an independent ICC/EC specific to economic crimes in order to overcome the major obstacles highlighted and which strongly affect the effectiveness of the international anti-corruption conventions. - Cet ouvrage de thèse doctorale propose, comme solution principale aux obstacles à l'effectivité des Conventions anti-corruption internationales étudiées, une Cour Pénale Internationale Spécialisée en Criminalité Economique (CPI/CE). En effet, les systèmes de règlement des différends des Conven¬tions anti-corruption internationales n'offrent pas suffisamment de gage d'effectivité et les délits et crimes de corruption transnationale ne sont pas de la compétence de la Cour Pénale Internationale (CPI) issue du statut de Rome de 2000. Dans un premier temps, le présent ouvrage analyse sept Conventions anti-corruption internationales adoptées entre 1996 et 2003, respectivement, par l'Organisation des Etats Américains (OEA), l'Organisation de Coopération et de Développement Economiques (OCDE), l'Union européenne (UE), le Conseil de l'Europe (CoE), l'Union Africaine (UA) et l'Organisation des Nations Unies (ONU). Dans un deuxième temps, l'ouvrage met en lumière un déficit de rationalisation et d'optimisation des incriminations que contiennent les Conventions, dont notamment : une incrimination lacunaire des personnes morales pour corruption, une incrimination tout aussi insuffisante pour corruption des dirigeants politiques au bénéfice d'immunités pénale et civile et une restitu¬tion internationale des avoirs issus de la corruption à portée limitée. Finalement, c'est au vu de l'analyse effectuée que le présent ouvrage conclut avec la proposition d'une CPI/CE indépendante et spécifique aux crimes économiques afin de pallier au mieux les obstacles majeurs mis en exergue et qui nuisent fortement à l'effectivité des Conventions anti-corruption internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plan du travail La première partie de cette thèse est consacrée à la tentative d'identifier les racines et lés contours d'une théorie de la vulnérabilité collective. Des approches théoriques et empiriques différentes sont exposées, et parfois revisitées, dans le but de proposer une perspective intégrative des sollicitations psychologiques particulières et des comportements sociaux caractéristiques d'un contexte de vulnérabilité collective. Dans le premier chapitre, les liens conceptuels entre les trois notions fondamentales de normes, de communautés et d'histoire sont explicités, afin de clarifier l'approche non-réductionniste des dynamiques collectives qui oriente le travail. Une attention particulière est accordée aux processus par lesquels des comportements sociaux orientés par des normes pertinentes au sein d'une communauté permettent de clarifier et de transformer des identités sociales (Reicher, 1982), voire de générer de nouveaux faits institutionnels (Searle, 1995). Il s'agit aussi de mettre en évidence l'apport potentiel d'une théorie qui se construit autour de l'articulation entre l'individu et son contexte social, à un débat épistémologique et méta-théorique entre psychologues sociaux, présent dès l'origine de la discipline (voire notamment Doise, 1982 ; Greenwood, 2004 ; Reicher, 2004 ; Tajfel, 1972). Les deux chapitres suivants proposent une logique explicative de la manière dont les membres d'une communauté, traversant une expérience de vulnérabilité collective, construisent une ligne d'action pour réagir aux sollicitations particulières d'un tel contexte social. Plus précisément, le chapitre 2 met en perspective des travaux de psychologie sociale sur le décalage entre l'identification d'injustices personnelles et l'identification d'injustices collectives, avec des travaux de sciences politiques sur le contraste entre l'irrationnalité apparente des comportements politiques compte tenu des situations de vie individuelles, et la rationnalité collective émergente de ces comportements en réaction à l'évolution de la situation collective. Le chapitre 3 met en perspective les travaux de psychologie sociale sur les motivations psychologiques et les stratégies mises en oeuvre afin de protéger la croyance fondamentale de vivre dans un monde juste, avec des travaux sociologiques rendant compte de l'incapacité humaine à supporter des situations d'anomie. Ces deux chapitres permettent ainsi d'étayer théoriquement l'hypothèse fondamentale qu'une expérience de vulnérabilité collective suscite des réactions qui dépassent la somme des réactions individuelles aux expériences personnelles de victimisation correspondantes. Ils amèneront à identifier deux types de comportements sociaux comme réactions typiques à un contexte de vulnérabilité collective : la contestation des dirigeants et des institutions du pouvoir établi, ainsi que la condamnation des transgressions des principes normatifs fragilisés. Lors des deux derniers chapitres de la partie théorique, ces phénomènes sont inscrits dans une temporalité plus longue. Le chapitre 4 tâche, d'une part, de préciser les conditions sociohistoriques particulières dans lesquelles la mise en cause du pouvoir établi et la réaffirmation de principes normatifs fragilisés amène à la reconnaissance que ces principes devraient s'appliquer également au traitement de personnes en dehors des frontières d'une communauté d'appartenance exclusive, ainsi qu'en particulier à la reconnaissance de droits universels. D'autre part, ce chapitre soulève la question des processus d'institutionnalisation qui stabilisent dans le temps les acquis normatifs résultant d'épisodes socio-historiques spécifiques, en particulier sous forme d'une inscription dans le droit international. L'idée est développée ainsi que c'est avant tout lors d'épisodes de problématisation d'identités exclusives que naît ou renaît l'aspiration à instituer une identité humaine. Le chapitre 5, finalement, introduit un second processus par lequel les acquis normatifs, résultant d'épisodes de vulnérabilité collective, sont susceptibles d'être préservés, à partir de l'idée que ceux-ci ne génèrent pas seulement des conditions favorables à l'émergence de nouvelles institutions, mais affectent également les engagements identitaires d'un nombre important d'individus simultanément. L'hypothèse est développée que la transition à la vie adulte constitue un passage du parcours de vie qui est particulièrement propice à un effet durable du contexte socio-historique sur les engagements identitaires d'une personne. De cette manière, la génération des jeunes adultes lors d'une expérience de vulnérabilité collective est susceptible de porter à travers le temps les traces des reconfigurations symboliques résultant de l'événement. Les arguments théoriques développés à travers les cinq premiers chapitres sont condensés sous forme d'une série de propositions théoriques falsifiables, en plus de l'hypothèse fondamentale d'irréductibilité de l'expérience collective. Afin de faciliter et de structurer la lecture des chapitres 2 à 5, chacune de ces propositions est placée en amont du chapitre dans lequel sont présentés les principaux arguments théoriques qui l'étayent. Ceci devrait aider à la mise en relief d'un fil rouge qui organise ces chapitres au-delà des ramifications argumentatives plus fines. Les propositions théoriques énoncées sont conçues comme un système théorique ; la signification de chacune d'entre elle peut être appréhendée au mieux en relation avec l'ensemble des autres propositions. Néanmoins, ces propositions sont formulées de manière à ce que chacune puisse être confrontée séparément à des observations empiriques systématiques. Il s'agit de répondre entre autres à une exigence pragmatique : aucune base de données, existante à ce jour, ne permettrait une évaluation complète du système théorique proposé. Les deux autres parties de la thèse présentent une suite d'études empiriques destinées à évaluer la pertinence des idées théoriques développées lorsque celles-ci sont appliquées à deux types particuliers d'expériences de vulnérabilité collective : au contexte des sociétés européennes connaissant actuellement un phénomène d'exclusion sociale massive (deuxième partie) et au contexte des sociétés d'après-guerre (troisième partie). Dans les deux cas, une stratégie méthodologique en deux temps est poursuivie. La première étape consiste dans la présentation d'analyses secondaires de la base de données internationale la plus pertinente à disposition. Il s'agit des données du European Social Survey (EES), ainsi que de l'enquête People on War (PoW), c'est-à-dire de deux enquêtes comparatives portant sur des échantillons représentatifs des populations d'un nombre de contextes considérables. Elles présentent l'avantage majeur de fournir simultanément des informations sur les expériences de victimisation pertinentes -situations de chômage et de pauvreté, dans le premier cas, expériences traumatisantes de la guerre dans le second - et sur l'expression de jugements politiques ou normatifs. Etant donné le caractère représentatif des échantillons étudiés, il est possible de construire des indicateurs qui informent sur la qualité des expériences collectives par agrégation des expériences individuelles à un niveau contextuel. L'utilisation de méthodes d'analyse multiniveaux permet ensuite de démêler l'impact des expériences collectives de celui des expériences individuelles sur les jugements exprimés. La deuxième étape consiste à compléter les analyses secondaires par une enquête réalisée directement en vue du cadre théorique présenté ici. Deux enquêtes ont été réalisées sur des échantillons de jeunes (pré-)adultes, à travers des contextes moins nombreux, mais directement sélectionnés selon des critères théoriques. Ainsi, l'Enquête sur l'entrée dans la vie adulte à travers trois régions françaises (EVA), se concentre sur trois contextes régionaux qui représentent trois situations-type quant à l'intensité de la vulnérabilité collective liée à l'exclusion sociale : particulièrement forte, intermédiaire ou particulièrement faible. L'enquête Transition to adulthood and collective expériences survey (TRACES) rassemble quatre pays d'ex-Yougoslavie, selon un plan qui croise les deux types de vulnérabilité collective pris en compte : deux contextes sur quatre ont été marqués par un épisode de vulnérabilité collective particulièrement intense lié à la guerre, et deux contextes sont marqués par une très forte vulnérabilité collective liée à l'exclusion sociale ; l'un de ces deux derniers contextes seulement a également été fortement affecté par la guerre. Se concentrant sur des échantillons plus modestes, ces deux enquêtes permettent des approfondissements importants, du fait qu'elles recourent à des outils d'enquête taillés sur mesure pour la problématique présente, en particulier des outils permettant d'évaluer les réactions face à des cas concrets de violations des droits humains, présentés sous forme de scénarios. Dans leur ordre de présentation, l'objet des quatre chapitres empiriques se résume de la manière suivante. Le chapitre 6 présente des analyses secondaires des deux premières vagues du ESS (2002 et 2004), portant en premier lieu sur l'impact du degré d'exclusion sociale sur la contestation des dirigeants et des institutions politiques, à travers vingt pays européens. Une importance particulière est accordée à la manière dont les expériences modulent l'effet des insertions dans des relations entre groupes asymétriques sur les jugements politiques, ainsi que sur la durabilité des effets des expériences collectives en fonction des cohortes. Les analyses de l'enquête EVA, dans le chapitre 7, approfondissent l'étude des liens entre contexte de vulnérabilité collective liée à l'exclusion sociale, l'insertion dans des rapports sociaux asymétriques et la contestation des institutions politiques. De plus, elles mettent en perspective ces liens avec les variations, en fonction du contexte et de l'origine sociale, de la condamnation de transgressions concrètes des droits socio-économiques. Le chapitre 8 rapporte les analyses secondaires de l'enquête PoW de 1999, qui visent en premier lieu à expliquer - à travers 14 contextes d'après-guerre sur quatre continents - les condamnations des violations du droit international humanitaire et la reconnaissance du caractère légal des normes transgressées en fonction de la distribution des expériences traumatisantes au sein de chaque contexte. Ces analyses permettent en particulier de comparer l'effet à moyen terme de ces expériences en fonction de l'âge au moment de la période du conflit armé. Finalement, le chapitre 9 présente des résultats de l'enquête TRACES. Ceux-ci permettent d'évaluer l'impact des expériences d'une vulnérabilité collective liée à la guerre sur la cohorte des jeunes adultes de la guerre, et de le mettre en perspective avec l'impact de l'exclusion sociale massive. Plusieurs dimensions sont prises en compte : la contestation des institutions politiques et la force de la condamnation de la violation des normes humanitaires ou des droits socio-économiques, ainsi que la reconnaissance d'une juridiction internationale en la matière. De plus, les fonctions psychologiques spécifiques de l'engagement dans la réaffirmation de normes fragilisées sont étudiées, notamment en termes d'effets sur la restauration de la croyance en une justice fondamentale, et sur la satisfaction de vie personnelle. Au fil de ces quatre chapitres empiriques, les propositions théoriques énoncées au préalable servent de passerelles entre le système théorique et les études empiriques. Dans l'introduction de chaque étude, les propositions qui s'y appliquent sont reprises et ensuite reformulées sous forme d'une hypothèse opérationnelle qui adopte la proposition générale au contexte et au phénomène spécifiques. Les deux parties empiriques sont suivies d'une conclusion, qui établit d'abord un bilan de l'apport de l'ensemble des quatre enquêtes analysées à la vérification de toutes les propositions théoriques, pour extraire ensuite trois principes explicatifs plus généraux et pour préciser leur insertion dans un contexte méta-théorique plus large.