126 resultados para Theoretical-methodological dimension


Relevância:

20.00% 20.00%

Publicador:

Resumo:

How long induced moods last is a critical question for mood research but has been only poorly addressed. In particular, physiological parameters have been rarely included to assess the effectiveness of mood induction procedures. Adopting a dimensional model of mood, we investigated the persistence of four different moods (positive higharousal, positive low-arousal, negative high-arousal, negative lowarousal) induced by four film clips ("sport", "nature", "torture", "slum") during a 9-minute computer task. We measured subjective mood state (valence and arousal), respiration, skin conductance level (SCL), heart rate, and corrugator activity in 76 subjects. Viewing of the selected film clips induced the expected effects both subjectively and physiologically. Corrugator activity was higher at the end of the negative clips than the positive clips, and ventilation and SCL were higher for the arousing clips than for the less arousing clips. People who watched the negative clips still reported more negative valence after the computer task and also showed more facial frowning (cf. figure) and lower SCL during the task than people who watched the positive clips. No arousal effects persisted throughout the task. The results suggest that induced changes in the valence dimension of moods are maintained throughout an intervening task and are physiologically best reflected by corrugator activity and SCL, whereas induced changes in the arousal dimension dissipate quickly. The findings of this study enrich, first, our knowledge concerning the relationships between subjective feelings and their physiological substrate. Second, they inform us about the effectiveness of film clips as a mood induction instrument. Third and most important, they suggest that induced changes in valence last longer than induced changes in arousal. High-arousal moods can last for an extended period of time in daily life, but they seem to be short-lived when induced in the lab. An important methodological consequence is that investigating the effect of the arousal dimension of a person's mood induced in the lab may be only possible when the subsequent task is relatively short. Finally, the findings show which physiological measures may be useful in tracking mood states.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The flourishing number of publications on the use of isotope ratio mass spectrometry (IRMS) in forensic science denotes the enthusiasm and the attraction generated by this technology. IRMS has demonstrated its potential to distinguish chemically identical compounds coming from different sources. Despite the numerous applications of IRMS to a wide range of forensic materials, its implementation in a forensic framework is less straightforward than it appears. In addition, each laboratory has developed its own strategy of analysis on calibration, sequence design, standards utilisation and data treatment without a clear consensus.Through the experience acquired from research undertaken in different forensic fields, we propose a methodological framework of the whole process using IRMS methods. We emphasize the importance of considering isotopic results as part of a whole approach, when applying this technology to a particular forensic issue. The process is divided into six different steps, which should be considered for a thoughtful and relevant application. The dissection of this process into fundamental steps, further detailed, enables a better understanding of the essential, though not exhaustive, factors that have to be considered in order to obtain results of quality and sufficiently robust to proceed to retrospective analyses or interlaboratory comparisons.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article analyses and discusses issues that pertain to the choice of relevant databases for assigning values to the components of evaluative likelihood ratio procedures at source level. Although several formal likelihood ratio developments currently exist, both case practitioners and recipients of expert information (such as judiciary) may be reluctant to consider them as a framework for evaluating scientific evidence in context. The recent ruling R v T and ensuing discussions in many forums provide illustrative examples for this. In particular, it is often felt that likelihood ratio-based reasoning amounts to an application that requires extensive quantitative information along with means for dealing with technicalities related to the algebraic formulation of these approaches. With regard to this objection, this article proposes two distinct discussions. In a first part, it is argued that, from a methodological point of view, there are additional levels of qualitative evaluation that are worth considering prior to focusing on particular numerical probability assignments. Analyses will be proposed that intend to show that, under certain assumptions, relative numerical values, as opposed to absolute values, may be sufficient to characterize a likelihood ratio for practical and pragmatic purposes. The feasibility of such qualitative considerations points out that the availability of hard numerical data is not a necessary requirement for implementing a likelihood ratio approach in practice. It is further argued that, even if numerical evaluations can be made, qualitative considerations may be valuable because they can further the understanding of the logical underpinnings of an assessment. In a second part, the article will draw a parallel to R v T by concentrating on a practical footwear mark case received at the authors' institute. This case will serve the purpose of exemplifying the possible usage of data from various sources in casework and help to discuss the difficulty associated with reconciling the depth of theoretical likelihood ratio developments and limitations in the degree to which these developments can actually be applied in practice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Interaction analysis is not a prerogative of any discipline in social sciences. It has its own history within each disciplinary field and is related to specific research objects. From the standpoint of psychology, this article first draws upon a distinction between factorial and dialogical conceptions of interaction. It then briefly presents the basis of a dialogical approach in psychology and focuses upon four basic assumptions. Each of them is examined on a theoretical and on a methodological level with a leading question: to what extent is it possible to develop analytical tools that are fully coherent with dialogical assumptions? The conclusion stresses the difficulty of developing methodological tools that are fully consistent with dialogical assumptions and argues that there is an unavoidable tension between accounting for the complexity of an interaction and using methodological tools which necessarily "monologise" this complexity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME« L'insertion sociale plurielle des femmes cadres supérieurs en Suisse. Contribution à l'étude du bien-être subjectif au quotidien. Approche intégrative qualitative. »Depuis une quarantaine d'années, nombreux sont les travaux qui étudient les relations entre les différents milieux de vie au quotidien et, plus particulièrement, l'impact de leurs articulations singulières sur la santé. Nous y identifions deux axes principaux : l'un aborde ce phénomène selon une perspective de « conflit travail-famille » en termes de « stress », l'autre se focalise davantage sur la promotion du « bien-être » au travers d'une approche d'« équilibre travail-vie ». Or, l'ensemble de ces recherches considère comme «pathogènes» les désajustements, les contradictions et les tensions vécus au quotidien. Selon cette tendance, le « bien-être » apparaît comme un état d'équilibre ultime indépendant du contexte de vie du sujet. Toutefois, peu de recherches portent sur la dimension située du bien-être dans son rapport à l'activité concrète au sein des milieux deNotre étude s'intéresse à cette question auprès des femmes cadres supérieurs, selon une perspective critique et développementale en psychologie de la santé (Lyons & Chamberlain, 2006 ; Santiago-Delefosse, 2002,2011 ; Malrieu, 1989 ; Vygotski, 1985). En effet, cette population constitue un terrain privilégié pour comprendre le sens donné à l'activité à partir des contraintes, responsabilités et demandes perçues dans des contextes parfois contradictoires, et pour analyser le rôle de ces derniers dans un bien-être subjectif.En cohérence avec notre positionnement théorique, nous avons mené des entretiens qualitatifs focalisés sur l'activité quotidienne auprès de 20 femmes, et ceci en deux temps (T1-T2) (40 entretiens). Les résultats issus des analyses du contenu des discours permettent de définir le vécu de l'articulation des milieux de vie chez nos participantes, selon trois axes à la fois interdépendants et autonomes. Chaque axe se définit par une série de supports spécifiques jouant un rôle structurant dans leur bien-être subjectif. Ainsi, le premier axe se caractérise par des supports de maîtrise subjective, ainsi que par l'appropriation de contraintes sociales et corporelles, selon un rythme de l'activité soutenu. Le deuxième s'accompagne de supports qui favorisent la prise de distance au travers du relâchement du rythme et du lâcher prise de la maîtrise, par la création d'espaces personnels et sociaux « pour soi ». Enfin, le troisième porte sur le positionnement de soi par rapport à autrui en termes de « personnalisation ».Construits en rapport à la corporéité et à autrui au sein de contextes spécifiques, ces différents supports prennent leur sens au sein d'un système de pratiques global, unique pour chaque femme. Selon cette conception critique, le bien-être subjectif chez les femmes cadres se définit comme le fruit d'un processus mouvant issu des tensions vécues entre les trois axes de l'articulation des milieux de vie. Il est par conséquent social, corporel et psychologique.Nos résultats ouvrent des perspectives de recherche et d'intervention, notamment en santé et travail. Ces ouvertures sont orientées vers une approche intégrative en psychologie de la santé, c'est-à-dire, de la prise en compte dans des questions de santé et de bien-être du processus de construction du sujet en relation à son insertion sociale plurielle.ABSTRACT« Plural social participation among women senior managers in Switzerland. Contribution to the study of subjective well-being in everyday life. An integrative and qualitativeapproach.»For the last forty years, a large body of literature has studied the relationships between different social realms in everyday life and, more particularly, the impact of their singular intertwinements with health. We identify two main trends : The first one focuses on this phenomenon through the « work-family conflict » perspective in terms of « stress » whilst the second one is more concerned by the promotion of « well-being » through a « work-life balance » approach. However, both of these trends consider disadjustments, contradictions and tensions in everyday life as « pathogenic ». According to this conception, « well- being » appears as an ultimate state of balance which is indépendant from the subject's life context. Nevertheless, few studies have examined the situated dimension of well-being in its link to concrete activity in social realms.Our research is concerned with this issue among women senior managers from a critical and developmental perspective in Health Psychology (Lyons & Chamberlain, 2006 ; Santiago-Delefosse, 2002, 2011 ; Malrieu, 1989 ; Vygotski, 1985). In fact, this population represents a favourable field so as to study : how the meaning of daily activity is constructed accross different and often conflictive social realms ; to understand the many ways in which this population deals with perceived constraints, responsibilities and requests, and to analyse the role of situated plural activity in subjective well-being.Consitent with our theoretical framework, we have designed a qualitative method. We have conducted two-time (T1-T2) interviews with 20 women by focusing on their daily activity (40 interviews). The Thematic Content Analysis reveals that four different social realms are articulated among our participants through three main axes, which are at the same time interdependent and autonomous. Each one of these axis is defined by a certain number of specific supports that play an important role in these women's subjective well- being. The first axis is concerned by several supports that signify a « feeling of control » along with the appropriation of social and body constraints by means of a rapid pace of activity. The second one regards the use of supports that contribute to « put things into perspective » by means of the slowing down of the pace of activity and through letting go of the feeling of control. This mechanism includes the creation of personal and social spaces of « one's own ». The third axis is defined by the positioning of the self in regard to others through a process of « personnalization ».Developed in specific contexts through the intertwinnements between the body and social others, supports belonging to these axes acquire significance and meaning on the basis of their relationship to a global system of activities of which they are part. However, this articulation is uniquely defined for each participant. According to this critical approach, subjective well-being among women senior managers emerges as a meaningful and changing process, situated in a plural social context. This is, it appears as the result of conflictual interactions defining the three different axis that we have identified. Subjective well-being is hence a social, embodied and psychological phenomena that is closely linked to the articulation of different social realms. Our findings open new research and practice perspectives, especially concerning health and work issues. These perspectives convey an integrative approach in Health Psychology by considering health and well-being by taking into account the process of construction of the subject in regard to his or her plural social participation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quantitative approaches in ceramology are gaining ground in excavation reports, archaeological publications and thematic studies. Hence, a wide variety of methods are being used depending on the researchers' theoretical premise, the type of material which is examined, the context of discovery and the questions that are addressed. The round table that took place in Athens on November 2008 was intended to offer the participants the opportunity to present a selection of case studies on the basis of which methodological approaches were discussed. The aim was to define a set of guidelines for quantification that would prove to be of use to all researchers. Contents: 1) Introduction (Samuel Verdan); 2) Isthmia and beyond. How can quantification help the analysis of EIA sanctuary deposits? (Catherine Morgan); 3) Approaching aspects of cult practice and ethnicity in Early Iron Age Ephesos using quantitative analysis of a Protogeometric deposit from the Artemision (Michael Kerschner); 4) Development of a ceramic cultic assemblage: Analyzing pottery from Late Helladic IIIC through Late Geometric Kalapodi (Ivonne Kaiser, Laura-Concetta Rizzotto, Sara Strack); 5) 'Erfahrungsbericht' of application of different quantitative methods at Kalapodi (Sara Strack); 6) The Early Iron Age sanctuary at Olympia: counting sherds from the Pelopion excavations (1987-1996) (Birgitta Eder); 7) L'aire du pilier des Rhodiens à Delphes: Essai de quantification du mobilier (Jean-Marc Luce); 8) A new approach in ceramic statistical analyses: Pit 13 on Xeropolis at Lefkandi (David A. Mitchell, Irene S. Lemos); 9) Households and workshops at Early Iron Age Oropos: A quantitative approach of the fine, wheel-made pottery (Vicky Vlachou); 10) Counting sherds at Sindos: Pottery consumption and construction of identities in the Iron Age (Stefanos Gimatzidis); 11) Analyse quantitative du mobilier céramique des fouilles de Xombourgo à Ténos et le cas des supports de caisson (Jean-Sébastien Gros); 12) Defining a typology of pottery from Gortyn: The material from a pottery workshop pit, (Emanuela Santaniello); 13) Quantification of ceramics from Early Iron Age tombs (Antonis Kotsonas); 14) Quantitative analysis of the pottery from the Early Iron Age necropolis of Tsikalario on Naxos (Xenia Charalambidou); 15) Finding the Early Iron Age in field survey: Two case studies from Boeotia and Magnesia (Vladimir Stissi); 16) Pottery quantification: Some guidelines (Samuel Verdan)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

General Summary Although the chapters of this thesis address a variety of issues, the principal aim is common: test economic ideas in an international economic context. The intention has been to supply empirical findings using the largest suitable data sets and making use of the most appropriate empirical techniques. This thesis can roughly be divided into two parts: the first one, corresponding to the first two chapters, investigates the link between trade and the environment, the second one, the last three chapters, is related to economic geography issues. Environmental problems are omnipresent in the daily press nowadays and one of the arguments put forward is that globalisation causes severe environmental problems through the reallocation of investments and production to countries with less stringent environmental regulations. A measure of the amplitude of this undesirable effect is provided in the first part. The third and the fourth chapters explore the productivity effects of agglomeration. The computed spillover effects between different sectors indicate how cluster-formation might be productivity enhancing. The last chapter is not about how to better understand the world but how to measure it and it was just a great pleasure to work on it. "The Economist" writes every week about the impressive population and economic growth observed in China and India, and everybody agrees that the world's center of gravity has shifted. But by how much and how fast did it shift? An answer is given in the last part, which proposes a global measure for the location of world production and allows to visualize our results in Google Earth. A short summary of each of the five chapters is provided below. The first chapter, entitled "Unraveling the World-Wide Pollution-Haven Effect" investigates the relative strength of the pollution haven effect (PH, comparative advantage in dirty products due to differences in environmental regulation) and the factor endowment effect (FE, comparative advantage in dirty, capital intensive products due to differences in endowments). We compute the pollution content of imports using the IPPS coefficients (for three pollutants, namely biological oxygen demand, sulphur dioxide and toxic pollution intensity for all manufacturing sectors) provided by the World Bank and use a gravity-type framework to isolate the two above mentioned effects. Our study covers 48 countries that can be classified into 29 Southern and 19 Northern countries and uses the lead content of gasoline as proxy for environmental stringency. For North-South trade we find significant PH and FE effects going in the expected, opposite directions and being of similar magnitude. However, when looking at world trade, the effects become very small because of the high North-North trade share, where we have no a priori expectations about the signs of these effects. Therefore popular fears about the trade effects of differences in environmental regulations might by exaggerated. The second chapter is entitled "Is trade bad for the Environment? Decomposing worldwide SO2 emissions, 1990-2000". First we construct a novel and large database containing reasonable estimates of SO2 emission intensities per unit labor that vary across countries, periods and manufacturing sectors. Then we use these original data (covering 31 developed and 31 developing countries) to decompose the worldwide SO2 emissions into the three well known dynamic effects (scale, technique and composition effect). We find that the positive scale (+9,5%) and the negative technique (-12.5%) effect are the main driving forces of emission changes. Composition effects between countries and sectors are smaller, both negative and of similar magnitude (-3.5% each). Given that trade matters via the composition effects this means that trade reduces total emissions. We next construct, in a first experiment, a hypothetical world where no trade happens, i.e. each country produces its imports at home and does no longer produce its exports. The difference between the actual and this no-trade world allows us (under the omission of price effects) to compute a static first-order trade effect. The latter now increases total world emissions because it allows, on average, dirty countries to specialize in dirty products. However, this effect is smaller (3.5%) in 2000 than in 1990 (10%), in line with the negative dynamic composition effect identified in the previous exercise. We then propose a second experiment, comparing effective emissions with the maximum or minimum possible level of SO2 emissions. These hypothetical levels of emissions are obtained by reallocating labour accordingly across sectors within each country (under the country-employment and the world industry-production constraints). Using linear programming techniques, we show that emissions are reduced by 90% with respect to the worst case, but that they could still be reduced further by another 80% if emissions were to be minimized. The findings from this chapter go together with those from chapter one in the sense that trade-induced composition effect do not seem to be the main source of pollution, at least in the recent past. Going now to the economic geography part of this thesis, the third chapter, entitled "A Dynamic Model with Sectoral Agglomeration Effects" consists of a short note that derives the theoretical model estimated in the fourth chapter. The derivation is directly based on the multi-regional framework by Ciccone (2002) but extends it in order to include sectoral disaggregation and a temporal dimension. This allows us formally to write present productivity as a function of past productivity and other contemporaneous and past control variables. The fourth chapter entitled "Sectoral Agglomeration Effects in a Panel of European Regions" takes the final equation derived in chapter three to the data. We investigate the empirical link between density and labour productivity based on regional data (245 NUTS-2 regions over the period 1980-2003). Using dynamic panel techniques allows us to control for the possible endogeneity of density and for region specific effects. We find a positive long run elasticity of density with respect to labour productivity of about 13%. When using data at the sectoral level it seems that positive cross-sector and negative own-sector externalities are present in manufacturing while financial services display strong positive own-sector effects. The fifth and last chapter entitled "Is the World's Economic Center of Gravity Already in Asia?" computes the world economic, demographic and geographic center of gravity for 1975-2004 and compares them. Based on data for the largest cities in the world and using the physical concept of center of mass, we find that the world's economic center of gravity is still located in Europe, even though there is a clear shift towards Asia. To sum up, this thesis makes three main contributions. First, it provides new estimates of orders of magnitudes for the role of trade in the globalisation and environment debate. Second, it computes reliable and disaggregated elasticities for the effect of density on labour productivity in European regions. Third, it allows us, in a geometrically rigorous way, to track the path of the world's economic center of gravity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Research on Public Service Motivation (PSM) has increased enormously in the last 20 years. Besides the analysis of the antecedents of PSM and its impact on organizations and individuals, many open questions about the nature of PSM itself still remain. This article argues that the theoretical construct of PSM should be contextualized by integrating the political and administrative contexts of public servants when investigating their specific attitudes towards working in a public environment. It also challenges the efficacy of the classic four-dimensional structure of PSM when it is applied to a specific context. The findings of a confirmatory factor analysis from a dataset of 3754 employees of 279 Swiss municipalities support the appropriateness of contextualizing parts of the PSM construct. They also support the addition of an extra dimension called, according to previous research, Swiss democratic governance. With regard to our results, there is a need for further PSM research to set a definite measure of PSM, particularly in regard to the international diffusion of empirical research on PSM.Points for practitionersThis study shows that public service motivation is a relevant construct for practitioners and may be used to better assess whether public agents are motivated by values or not. Nevertheless, it stresses also that the measurement of PSM must be adapted to the institutional context as well. Public managers interested in understanding better the degree to which their employees are motivated by public values must be aware that the measurement of this PSM construct has to be contextualized. In other words, PSM is also a function of the institutional environment in which organizations operate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les investigations dans le milieu des accidents de la circulation sont très complexes. Elles nécessitent la mise en oeuvre d'un grand nombre de spécialités venant de domaines très différents. Si certains de ces domaines sont déjà bien exploités, d'autres demeurent encore incomplets et il arrive de nos jours d'observer des lacunes dans la pratique, auxquelles il est primordial de remédier.Ce travail de thèse, intitulé « l'exploitation des traces dans les accidents de la circulation », est issu d'une réflexion interdisciplinaire entre de multiples aspects des sciences forensiques. Il s'agit principalement d'une recherche ayant pour objectif de démontrer les avantages découlant d'une synergie entre les microtraces et l'étude de la dynamique d'un accident. Afin de donner une dimension très opérationnelle à ce travail, l'ensemble des démarches entreprises a été axé de manière à optimiser l'activité des premiers intervenants sur les lieux.Après une partie introductive et ayant trait au projet de recherche, traitant des aspects théoriques de la reconstruction d'une scène d'accident, le lecteur est invité à prendre connaissance de cinq chapitres pratiques, abordés selon la doctrine « du général au particulier ». La première étape de cette partie pratique concerne l'étude de la morphologie des traces. Des séquences d'examens sont proposées pour améliorer l'interprétation des contacts entre véhicules et obstacles impliqués dans un accident. Les mécanismes de transfert des traces de peinture sont ensuite étudiés et une série de tests en laboratoire est pratiquée sur des pièces de carrosseries automobiles. Différents paramètres sont ainsi testés afin de comprendre leur impact sur la fragilité d'un système de peinture. Par la suite, une liste de cas traités (crash-tests et cas réels), apportant des informations intéressantes sur le traitement d'une affaire et permettant de confirmer les résultats obtenus est effectuée. Il s'ensuit un recueil de traces, issu de l'expérience pratique acquise et ayant pour but d'aiguiller la recherche et le prélèvement sur les lieux. Finalement, la problématique d'une banque de données « accident », permettant une gestion optimale des traces récoltées est abordée.---The investigations of traffic accidents are very complex. They require the implementation of a large number of specialties coming from very different domains. If some of these domains are already well exploited, others remain still incomplete and it happens nowadays to observe gaps in the practice, which it is essential to remedy. This thesis, entitled "the exploitation of traces in traffic accidents", arises from a multidisciplinary reflection between the different aspects of forensic science. It is primarily a research aimed to demonstrate the benefits of synergy between microtrace evidence and accidents dynamics. To give a very operational dimension to this work, all the undertaken initiatives were centred so as to optimise the activity of the first participants on the crime scene.After an introductory part treating theoretical aspects of the reconstruction of an accident scene the reader is invited to get acquainted with five practical chapters, according to the doctrine "from general to particular". For the first stage of this practical part, the problem of the morphology of traces is approached and sequences of examinations are proposed to improve the interpretation of the contacts between vehicles and obstacles involved in an accident. Afterwards, the mechanisms of transfer of traces of paint are studied and a series of tests in laboratory is practised on pieces of automobile bodies. Various parameters are thus tested to understand their impact on the fragility of a system of paint. It follows that a list of treated cases (crash-tests and real cases) is created, allowing to bring interesting information on the treatment of a case and confirm the obtained results. Then, this work goes on with a collection of traces, stemming from the acquired experience that aims to steer the research and the taking of evidence on scenes. Finally, the practical part of this thesis ends with the problem of a database « accident », allowing an optimal management of the collected traces.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Enterprise Architecture (EA), which has been approached by both academia and industry, is considered comprising not only architectural representations, but also principles guiding architecture's design and evolution. Even though the concept of EA principles has been defined as the integral part of EA, the number of publications on this subject is very limited and only a few organizations use EA principles to manage their EA endeavors. In order to critically assess the current state of research and identify research gaps in EA principles, we focus on four general aspects of theoretical contributions in IS. By applying these aspects to EA principles, we outline future research directions in EA principles nature, adoption, practices, and impact.