390 resultados para Problèmes de conduite


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'interaction thérapeutique avec les patients présentant un trouble de la personnalité a été décrite comme difficile et volatile. Récemment, les thérapies cognitivo-comportementales (TCC) s'approchent de ces difficultés par des traitements manualisés et des modélisations complexes, ce qui tend à laisser dans l'ombre l'acteur principal du changement en psychothérapie : le patient. La présente lecture intégrative discute plusieurs mécanismes de changement actifs chez les patients avec trouble de la personnalité. Premièrement, il est décrit que les problèmes d'interaction, résumés sous le terme des jeux interactionnels, posent des défis spécifiques. Le thérapeute est ainsi amené à favoriser une interaction thérapeutique authentique, en utilisant notamment une forme individualisée d'intervention, la relation thérapeutique centrée sur les motifs. Deuxièmement, il est décrit que les problèmes de conscience et de différenciation émotionnelles entravent la qualité du traitement des troubles de la personnalité. Le thérapeute est ainsi conseillé d'utiliser des techniques empruntées aux thérapies néo-humanistes, notamment la directivité de processus, afin d'approfondir l'affect émergeant en séance. Troisièmement, il a été décrit qu'une identité sociale affirmée fait souvent défaut chez les patients avec trouble de la personnalité. Les thérapeutes avisés peuvent favoriser ce processus avec des interventions ciblées. En conclusion, une focalisation sur les comportements observables du patient - les processus réels en séance -, est productive, et elle permet au thérapeute d'affiner, de préciser et d'approfondir son intervention, au plus près du patient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis deux années et demie, l'équipe de Dahlia participe d'un projet, élaboré par le Dr Ch. Bryois, dont les objectifs principaux d'accueil des premiers séjours et pour une durée moyenne de 15 jours, contredisaient les habitudes institutionnelles. Ses porte-parole nous expliquent comment l'équipe a vécu la mise en place de ce modèle, les problèmes rencontrés, les avancées qu'il a introduites dans sa pratique et son élaboration théorique. L'initiateur de cette unité nous a donné, dans une interview, sa propre interprétation de cette expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La criminologie et la police scientifique ont des origines communes mais se sont distanciées pour être finalement considérées comme séparées. Pourtant, les traces, résultat de l'action criminelle par les échanges de matière, indiquent ce qui s'est passé dans le cas particulier. Regroupées et comparées, elles émettent des signes sur l'existence de problèmes de sécurité. Une méthode fondée sur la résolution de problèmes peut ainsi intégrer naturellement la trace et constituer un socle pour un rapprochement des disciplines. Elle illustre d'une part l'importance pour la criminologie de ne pas ignorer le substrat matériel et informatique indispensable à l'explication de l'action criminelle, et pour la police scientifique de contextualiser ses informations en s'appuyant sur des théories en criminologie pour leur donner du sens. C'est l'enjeu de ce numéro spécial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que les politiques environnementales se sont développées de manière exponentielle ces dernières décennies, les problèmes demeurent. C'est que l'adoption d'une règle ne constitue jamais une fin en soi. Encore faut-il, pour qu'elle produise ses effets, que les acteurs se l'approprient, la traduisent comme une prescription au niveau de l'action. Or ce processus d'appropriation, loin d'être automatique, est émaillé de rapports de force et d'arrangements, de stratégies complémentaires ou concurrentes. Tous les acteurs ne poursuivent dans ce cadre pas des objectifs de concrétisation, certains cherchant au contraire à contourner ou à instrumentaliser les règles, à atténuer leurs effets ou à favoriser des solutions sur mesure. Il y a, clairement, une distance de la règle à l'action. Le présent ouvrage met en lumière la dimension politique de ces processus à travers le développement du concept de stratégies d'activation du droit. Relevant autant de démarches de concrétisation que de logiques alternatives (passivité, détournement, contournement, innovation), elles sont placées au coeur de la réflexion. Au final, le propos souligne l'intérêt d'une approche moins managériale de la mise en oeuvre. Les stratégies d'activation contribuent à mettre en évidence un répertoire très fin de jeux d'acteurs, à systématiser une analyse actorielle souvent réduite au minimum en raison de la difficulté à en rendre compte. L'ouvrage apporte en ce sens une véritable plus-value à l'analyse des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse la co-évolution de deux secteurs dans la politique de la santé: santé publique (public health) et soins aux malades (health care). En d'autres termes, la relation entre les dimensions curative et préventive de la politique de la santé et leur développement dans la durée. Une telle recherche est nécessaire car les problèmes de la santé sont complexes et ont besoin de solutions coordonnées. De plus, les dépenses de la santé ont augmenté sans arrt durant les dernières décennies. Un moyen de réduire une future augmentation des dépenses pourrait consister en davantage d'investissement dans des mesures préventives. En relation avec cette idée, ma recherche analyse les politiques de la santé publique et les soins aux malades de cinq pays: Allemagne, Angleterre, Australie, Etats-Unis et Suisse. En m'appuyant sur la littérature secondaire, des statistiques descriptives et des entretiens avec des experts et des politiciens, j'analyse la relation entre les deux secteurs depuis la fin du dix-neuvième siècle. En particulier, je me focalise sur la relation des deux champs sur trois niveaux: institutions, acteurs et politiques. Mes résultats montrent les similitudes et les différences d'évolution entre les cinq pays. D'un c^oté, lorsque la profession médicale est politiquement active et que le pays consiste en une fédération centralisée ou en un gouvernement unitaire, les deux secteurs sont intégrés au niveau institutionnel, ralliant les professions et groupes d'intérêt des deux secteurs la cause commune dans une activité politique. Par contre, dans tous les pays, les deux secteurs ont co-évolué vers une complémentarité malgré de la politisation des professions et la centralisation du gouvernement. Ces résultats sont intéressants pour la science politique en général car ils soulignent l'importance des professions pour le développement institutionnel et proposent un cadre pour l'analyse de la co-évolution des politiques publiques en général. -- This Ph.D. thesis analyzes the co-evolution of the health care and the public health sectors. In other words, the relation between preventive and curative health policy and its evolution over time. Such research is necessary, because current health problems are complex and might need coordinated solutions. What is more, health expenditures have increased continuously in the last decades. One way to slow down further increase in health spending could be to invest more in preventative health policies. Therefore, I am connecting individual health care and public health into a common analysis, taking Australia, Germany, Switzerland, the UK and the U.S. as examples. Based on secondary literature, descriptive statistics and interviews with experts and policymakers, I am analyzing how the two sectors' relations co-evolved between the late nineteenth and the early twenty-first century. Specifically, I am researching how health care and public health were related on the levels of institutions, actors and policies. My results show that there are differences and similarities in the co-evolution of policy sectors between these countries. On the one hand, when the medical profession was politically active and the country a centralized federation or a unitary state, there was institutional integration and common political advocacy of the sectors' interest groups and professions. On the other hand, in all countries, both sectors co-evolved towards complementarity, irrespectively of the politicization of professions and centralization of government. These findings are interesting for the political science literature at large, because they underline the importance of professions for institutional development and propose an analytical framework for analyzing the co-evolution of policy sectors in general.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si la famille est en général synonyme d'intimité et de relations de confiance, elle peut également être un lieu d'abus, de contrôle ou de violences. Les diverses formes de violences qui se déroulent dans la sphère privée ont été dénoncées dès les années 1970 par les mouvements féministes. Elles ont alors fait l'objet d'une variété de politiques et d'actions publiques ayant pour vocation de défendre et d'accompagner les victimes, de punir et soigner les agresseurs ou de rétablir des liens familiaux distendus. En s'attachant à la façon dont ces violences ont été définies dans des contextes différents, en Europe, en Amérique du Nord et en Amérique latine, cet article a pour ambition de donner à voir les perspectives variées que recouvrent des catégories d'action publique aussi diverses que violences conjugales, violences domestiques, violences intrafamiliales ou encore féminicides ou fémicides, et les conséquences que ces différentes visions du problème ont sur sa prise en charge. Largement influencé par les études genre et la sociologie des problèmes publics, cet article, notamment à travers la présentation des contributions qui composent ce numéro de la revue Enfances Familles Générations, entend questionner les notions de violences de genre dans le cadre familial, dont les frontières sont fluctuantes et investies de façon variée, ainsi que les formes d'institutionnalisation du problème et les solutions qui sont envisagées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes de santé liés au travail sont en augmentation. Des stratégies d'entreprise intégrant la santé au travail doivent être mises en place. Les rapports entre activité professionnelle et santé restent cependant complexes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La polymyalgia rheumatica (PMR) est une pathologie relativement fré­ quente affectant presque exclusivement des personnes de plus de 50 ans, se manifestant principalement par des douleurs des ceintures scapulaire et pelvienne, et une raideur matinale. Le diagnostic de PMR repose sur la présentation clinique caractéristique, l'élévation des paramètres inflammatoires biologiques (VS et CRP), une valeur de procalcitonine classiquement normale, la réponse rapide aux corticostéroïdes et l'exclusion de pathologies confondantes. Une artérite gigantocellulaire (AGC) sous­jacente ou une autre affection doivent être suspectées chez des patients restant symptomatiques ou conservant des paramètres inflammatoires élevés malgré une corticothé­ rapie bien conduite. Dans la phase de sevrage des corticostéroïdes, une récidive des symptômes et une ré­ascension des marqueurs inflammatoires peuvent survenir chez 25 à 50% des patients. En cas de récidives cliniques successives lors du sevrage de la corticothérapie, un traitement immunosuppresseur de fond à visée d'épargne des corticostéroïdes peut être considéré, en particulier si des effets secondaires liés à la corticothérapie sont constatés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique. Le vieillissement de la population continuera à transformer la démographie. Sa conséquence est une augmentation des besoins de santé chez les personnes âgées que le système sanitaire ne peut couvrir à lui seul. La contribution conséquente des aidants familiaux constitue un pilier nécessaire et essentiel du maintien à domicile. Or, les exigences du rôle d'aidant peuvent dépasser ses capacités et conduire à une hospitalisation. Ces sources de stress, auxquelles s'ajoutent les manifestations de la maladie du proche et des difficultés de collaboration avec les professionnels de santé, peuvent générer un sentiment d'impuissance chez l'aidant. Ce dernier s'ajuste à ce stress par des stratégies de coping, influencées par le degré de contrôle perçu, dont le niveau le plus bas est l'impuissance. But. Explorer la relation entre le sentiment d'impuissance et le coping chez l'aidant à l'occasion de l'hospitalisation du proche. Méthode. Cette étude corrélationnelle descriptive a été conduite auprès de 33 aidants familiaux dont le proche est hospitalisé, recrutés selon un échantillonnage de convenance. Le questionnaire auto-administré comportait trois1 instruments : (a) questionnaire sociodémographique, (b) Ways of Coping Checklist-R, (c) sous-échelle d'impuissance de l'Empowerment Scale (allant de 1 à 4, quatre correspondant à un faible degré d'impuissance). Des comparaisons de moyennes et des corrélations de Pearson ont été effectués. Résultats. L'échantillon est constitué de 45,45 % d'hommes aidants, âgés en moyenne de 61 ans. Les participants viennent en aide à des proches âgés en moyenne de 79 ans. Pour la plus grande part, les aidants assistent leurs proches pour les activités instrumentales de la vie quotidienne. La moitié de l'échantillon fournit de 1 à 5 heures d'aide par semaine. Les participants se sentent relativement peu impuissants (M = 2,55). Cependant, plus l'âge des aidants augmente, plus l'impuissance augmente (r = -0,45 ; p < 0,0106). L'impuissance est plus élevée chez les hommes que chez les femmes (M = 2,40 vs M = 2,67 ; p = 0,0270). Dans cet échantillon, il n'y a pas de différence de sentiment d'impuissance selon que les aidants fournissent ou non une aide pour les activités de la vie quotidienne (AVQ), ni selon le nombre d'heures d'aide fournies par semaine. Le style de coping privilégié par les aidants est le coping centré sur le problème, puis sur la recherche de soutien social et finalement sur l'émotion. Les aidants fournissant de l'aide dans les AVQ privilégient le coping centré sur l'émotion alors qu'il n'existe pas de différence pour les deux autres styles de coping. Aucune relation entre l'impuissance et le coping n'apparaît. Conclusions. Malgré les limites de l'étude, notamment liées à la mesure de l'impuissance, les présents résultats sont compatibles avec les études antérieures. Il est néanmoins préconisé d'approfondir les connaissances utiles au renforcement du rôle infirmier auprès des aidants familiaux. Cela doit contribuer à préserver la santé de l'aidant, son rôle auprès du proche et le maintien à domicile de ce dernier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la psychologie dévelopementale proposée par Jérôme Bruner, la question de la " culture " se traduit par l'attention particulière donnée aux processus par lesquels une personne rend signifiante la situation dans laquelle elle est engagée. De fait, dans la psychologie du développement de ces cinquante dernières années, la place de la " culture " varie parallèlement à celle des questions du sens (privé) et de la signification (partagée) des connaissances, des actions et des objets de culture. Dans cet article, nous identifions quatre traditions de travaux qui abordent la " culture " dans le développement. Cela met en évidence certains problèmes théoriques et méthodologiques, et nous permet de souligner certains enjeux actuels de la psychologie sociale et culturelle du développement.