999 resultados para Problèmes de conduite


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cooperativismo agrario ha estado ligado desde sus orígenes al sector de las frutas y hortalizas, sector que arrastra desde hace años una problemática de carácter estructural, incrementada, sobretodo en el caso de la fruta, por las graves crisis de precios, la saturación de los mercados y una competencia creciente de las importaciones de terceros países. En este difícil marco, los productores deben seguir invirtiendo para mantener la competitividad y la rentabilidad de sus explotaciones, y las cooperativas, por su importancia económica, deben acometer políticas que permitan garantizar la viabilidad de dicho sector. En el presente trabajo realizamos un análisis del sector cooperativo frutícola catalán, con el fin de detectar sus puntos fuertes y débiles, así como posibles carencias y demandas. Las conclusiones muestran que las cooperativas son importantes en el sector de la fruticultura, debido sobretodo a su contribución activa a la conservación del territorio y su papel generador de empleo en numerosas zonas rurales. Pero se hace necesario la adopción de firmes decisiones y la implantación de medidas de apoyo que permitan garantizar los intereses de los socios y las necesidades de los consumidores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après s'être longtemps focalisée sur l'individu, la littérature consacrée à la mobilité résidentielle a mis en exergue l'importance de prendre en compte les ménages comme unité d'analyse. En s'intéressant à des couples appartenant aux classes moyennes supérieures et s'étant installés en zone urbaine centrale, cet article aborde la construction du choix résidentiel entre conjoints et leurs motivations. Différents arbitrages relatifs à la localisation sont identifiés selon qu'ils portent sur des problèmes de mobilité (réels ou anticipés), la conciliation entre carrière professionnelle et vie familiale, l'attachement territorial, l'appartenance linguistique (la ville étudiée étant bilingue) et la bi-résidentialité (ou non-cohabitation). Des logiques de genre sont identifiées. Bien que plus marquées parmi les couples âgés, elles représentent une variable importante pour expliquer l'organisation conjugale et se répercute sur le choix résidentiel de différentes manières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au printemps 2012, des employés administratifs, ayant récemment emménagé dans un nouveau bâtiment à hautes performances énergétiques, se plaignent de problèmes de santé et de gênes compatibles avec un syndrome du bâtiment malsain. L'employeur a entendu les plaintes des collaborateurs, et choisit une intervention unique, consistant à poser des ouvrants afin de fournir une ventilation naturelle. Parallèlement, il commande à des spécialistes MSST une étude sur l'impact de la mesure sur les plaintes exprimées par les employés. La littérature recommande quant à elle de prendre en charge ce type de problématique de façon itérative, et en abordant de multiples aspects (qualité de l'air, psycho-sociaux, organisationnels). Au vu des nombreuses plaintes de la population, et de la disponibilité de ces données, une analyse détaillée, de cohorte, est proposée dans ce travail de master, dont les objectifs seront de caractériser les plaintes des collaborateurs travaillant dans le bâtiment administratif, de diagnostiquer le type de problématique présent, de déterminer si l'on observe une atténuation des symptômes dans ce bâtiment suite à l'intervention unique de pose des ouvrants, et d'isoler si possible d'autres déterminants d'une évolution favorable ou défavorable de la symptomatologie en présence d'une intervention unique. Une étude de cohorte est menée sur les données récoltées par un questionnaire, basé sur le questionnaire MM40, en mars 2012 (T0) et mars 2013 (T1). La population est décrite, puis des analyses descriptives et par régression logistique sont réalisées. La participation a été importante. Entre T0 et T1, après la pose des ouvrants, le nombre de plaintes et symptômes a diminué, mais la prévalence des plaintes reste importante (odeurs, ventilation, bruit, etc.). Les plaintes et les symptômes mis en évidence sont retrouvés dans la littérature, et sont peu spécifiques à la problématique de ce bâtiment, situé en Suisse. De nouvelles pistes d'intervention sont proposées au vu des résultats trouvés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La précarité définit ce dont l'avenir, la durée ou la solidité ne sont pas assurés. Elle se développe notamment lorsque le niveau socio-économique est défavorable. Elle se définit par rapport à la communauté et peut être matérielle ou relationnelle. Le rapport entre précarité et santé peut se comprendre sous l'angle des déterminants sociaux de la santé, énoncés en 2004 par l'Organisation Mondiale de la Santé (OMS) : les conditions et les habitudes de vie influencent l'état de santé. Ayant un large accès à la population, les médecins de premier recours (MPR) sont des témoins privilégiés de la précarité et des inégalités sociales. La littérature définit la mission des MPR, mais il est essentiel de connaître leurs points de vue sur la question de la précarité, dans la réalité pratique. Méthode Ce travail de recherche a débuté par une revue approfondie de la littérature concernant les problématiques psychosociales en médecine. Une approche qualitative était ensuite nécessaire, sous forme d'entrevues semidirigées avec cinq différents médecins de la région lausannoise, afin de réaliser un questionnaire à soumettre à 47 autres médecins de premier recours, dans l'ensemble de la Suisse Romande, après validation par la commission cantonale vaudoise d'éthique. Résultats Cette enquête met en évidence l'existence et l'importance de la problématique de la précarité au sein du système de santé en Suisse Romande. Difficile à cerner, complexe et multifactorielle, certains ont tenté de la définir mais chacun l'apprécie différemment selon son vécu et sa sensibilité. Hormis ceux qui renoncent aux soins ou qui recourent aux urgences en dernier recours, la population qui consulte les MPR comporte entre 10 et 20% de patients précaires, proportion en augmentation ces dernières années et dépendant de la localisation. Les MPR détectent la précarité grâce à l'anamnèse psychosociale et certains marqueurs extérieurs. Leurs points de vue sont au coeur de notre question initiale. Pour eux, c'est leur rôle de détecter et prendre en charge, du moins partiellement, la précarité. Ils réfèrent ensuite souvent les patients vers d'autres structures ou corps de métiers mieux spécialisés. Ils ressentent, selon les situations, de la frustration, du surmenage, de l'impuissance mais aussi de la satisfaction personnelle dans ce type de prise en charge. La précarité complique souvent la prise en charge médicale : elle influence la survenue ou l'évolution du problème de santé, augmente le temps de consultation pour les patients précaires, induit une tendance chez les MPR à adapter le traitement ou réaliser moins d'investigations complémentaires en raison des difficultés économiques des patients et entraîne souvent des factures impayées. Les pathologies ou problèmes de santé les plus fréquemment rencontrés dans ces populations sont les troubles dépressifs, les addictions, les douleurs chroniques et le syndrome métabolique. Enfin, au delà du simple constat, les MPR expriment certains besoins pour mieux faire face à la précarité : ils souhaiteraient entre autres un carnet d'adresses utiles, un score mesurant la précarité et une formation continue à ce sujet. Conclusion La précarité est un sujet d'actualité et peut notamment influencer l'état de santé des populations, et inversement. Les MPR sont des témoins essentiels de cette problématique et la clé de sa détection, de par leur accès à une large population. Connaître leurs points de vue paraît donc essentiel si l'on souhaite imaginer des interventions visant à réduire les inégalités en matière de santé, pour une meilleure équité des soins. Entre ce qu'ils ressentent et les problèmes concrets d'organisation des consultations de patients précaires, le risque est un certain renoncement aux soins de la part des médecins, qui accentuerait celui des patients déjà existant. Finalement, la pénurie grandissante des MPR nécessite également de mieux comprendre leur mission et leurs conditions de travail, afin d'aider à redéfinir l'avenir du métier, pour continuer à exister et détecter ces situations à prendre en charge, visant à restaurer une santé solide et équilibrée, physique, mentale et sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pensée de l'art développée par Jean Dubuffet sous le nom d'« art brut » passe par le langage et concerne les textes autant que les dessins, les peintures ou les sculptures. D'anciens écrits asilaires conservés à la Collection de l'Art Brut, à Lausanne, sont ici présentés et analysés. Ces « histoires de fou » posent à la critique des difficultés théoriques nombreuses et souvent inédites - autant de problèmes qui impliquent de s'ouvrir à une poétique de l'énonciation, dans le prolongement d'Émile Benveniste et d'Henri Meschonnic. Les « écrits bruts » déplacent la question de l'altérité de l'aliéné vers le langage. Déplacement historicisé. Moderne par excellence. C'est ce déplacement qui fait le brut de l'art. C'est ce déplacement qu'explore le présent ouvrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport de recherche a été commandé par la Commission externe d'évaluation des politiques publiques du Canton de Genève (Suisse) dans le cadre d'une évaluation de la politique de formation de la police dans ce canton. L'étude montre que, d'une manière générale, les policiers/ères récemment assermenté-e-s jugent positivement leur formation, en particulier certains éléments du dispositif pédagogique (durée de la formation, charge de travail, formateurs/trices) et se sentent bien préparé-e-s à gérer les contacts avec leurs différents publics (en particulier les personnes agressives et les victimes de violences domestiques). Néanmoins, la plupart des policiers/ères interrogé-e-s perçoivent le travail effectué au sein des services comme étant éloigné des prescriptions scolaires. Ils estiment que ces dernières ne sont pas celles qui sont appliquées par leurs collègues expérimenté-e-s. Les matières physico-techniques sont, d'une manière générale, considérées comme plus utiles et plus importantes que les matières relationnelles. Dans cet ordre d'idée, un certain nombre de policiers/ères réclament moins de psychologie. Il s'agit cependant de la matière relationnelle à propos de laquelle les jugements sont les plus nuancés, en particulier à propos des savoirs permettant de gérer les personnes présentant des troubles mentaux, d'améliorer la communication et de gérer les conflits (au détriment de ceux visant à l'introspection). Les enseignements de police de proximité ont quant à eux tendance à être associés à une spécialisation propre à la gendarmerie et inutile pour les nouveaux/elles entrant-e-s, en particulier les inspecteurs/trices. L'éthique et les droits de l'Homme concentrent par contre les jugements négatifs : ces cours sont perçus comme diffusant des « bonnes paroles » prêchées par des formateurs/trices extérieurs à la profession (si ce n'est réellement, du moins symboliquement), éloignées de la réalité du métier et échouant à combattre les préjugés, en particulier ceux basés sur l'origine ethnico-nationale. L'étude montre en outre que les compétences relationnelles et les rapports aux différents publics sont centrales dans les appréciations portées sur l'adéquation entre formation et pratique. À ce sujet, ont été repérés néanmoins des points qui posent problèmes (aux yeux des policiers/ères interrogé-e-s ou à nos yeux) : peu de réflexivité en ce qui concerne les risques associés au «délit de faciès», problèmes avec les « maghrébins » et les jeunes en groupe (liés en particulier à la remise en cause de l'autorité policière), imprévisibilité des consommateurs/trices de drogue et vision pessimiste (parfois très peu empathique) de la toxicomanie, sentiment de difficulté et d'inconfort associé aux tâches visant à prendre en charge la souffrance d'autrui, relégation de la plupart des situations de violence domestique au rang de tâches indues, difficultés associées aux contacts avec les personnes atteintes de maladies psychiques graves, et la mention en priorité des cours de TTI pour la gestion des personnes agressives (au détriment des matières relationnelles).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'interaction thérapeutique avec les patients présentant un trouble de la personnalité a été décrite comme difficile et volatile. Récemment, les thérapies cognitivo-comportementales (TCC) s'approchent de ces difficultés par des traitements manualisés et des modélisations complexes, ce qui tend à laisser dans l'ombre l'acteur principal du changement en psychothérapie : le patient. La présente lecture intégrative discute plusieurs mécanismes de changement actifs chez les patients avec trouble de la personnalité. Premièrement, il est décrit que les problèmes d'interaction, résumés sous le terme des jeux interactionnels, posent des défis spécifiques. Le thérapeute est ainsi amené à favoriser une interaction thérapeutique authentique, en utilisant notamment une forme individualisée d'intervention, la relation thérapeutique centrée sur les motifs. Deuxièmement, il est décrit que les problèmes de conscience et de différenciation émotionnelles entravent la qualité du traitement des troubles de la personnalité. Le thérapeute est ainsi conseillé d'utiliser des techniques empruntées aux thérapies néo-humanistes, notamment la directivité de processus, afin d'approfondir l'affect émergeant en séance. Troisièmement, il a été décrit qu'une identité sociale affirmée fait souvent défaut chez les patients avec trouble de la personnalité. Les thérapeutes avisés peuvent favoriser ce processus avec des interventions ciblées. En conclusion, une focalisation sur les comportements observables du patient - les processus réels en séance -, est productive, et elle permet au thérapeute d'affiner, de préciser et d'approfondir son intervention, au plus près du patient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis deux années et demie, l'équipe de Dahlia participe d'un projet, élaboré par le Dr Ch. Bryois, dont les objectifs principaux d'accueil des premiers séjours et pour une durée moyenne de 15 jours, contredisaient les habitudes institutionnelles. Ses porte-parole nous expliquent comment l'équipe a vécu la mise en place de ce modèle, les problèmes rencontrés, les avancées qu'il a introduites dans sa pratique et son élaboration théorique. L'initiateur de cette unité nous a donné, dans une interview, sa propre interprétation de cette expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La criminologie et la police scientifique ont des origines communes mais se sont distanciées pour être finalement considérées comme séparées. Pourtant, les traces, résultat de l'action criminelle par les échanges de matière, indiquent ce qui s'est passé dans le cas particulier. Regroupées et comparées, elles émettent des signes sur l'existence de problèmes de sécurité. Une méthode fondée sur la résolution de problèmes peut ainsi intégrer naturellement la trace et constituer un socle pour un rapprochement des disciplines. Elle illustre d'une part l'importance pour la criminologie de ne pas ignorer le substrat matériel et informatique indispensable à l'explication de l'action criminelle, et pour la police scientifique de contextualiser ses informations en s'appuyant sur des théories en criminologie pour leur donner du sens. C'est l'enjeu de ce numéro spécial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que les politiques environnementales se sont développées de manière exponentielle ces dernières décennies, les problèmes demeurent. C'est que l'adoption d'une règle ne constitue jamais une fin en soi. Encore faut-il, pour qu'elle produise ses effets, que les acteurs se l'approprient, la traduisent comme une prescription au niveau de l'action. Or ce processus d'appropriation, loin d'être automatique, est émaillé de rapports de force et d'arrangements, de stratégies complémentaires ou concurrentes. Tous les acteurs ne poursuivent dans ce cadre pas des objectifs de concrétisation, certains cherchant au contraire à contourner ou à instrumentaliser les règles, à atténuer leurs effets ou à favoriser des solutions sur mesure. Il y a, clairement, une distance de la règle à l'action. Le présent ouvrage met en lumière la dimension politique de ces processus à travers le développement du concept de stratégies d'activation du droit. Relevant autant de démarches de concrétisation que de logiques alternatives (passivité, détournement, contournement, innovation), elles sont placées au coeur de la réflexion. Au final, le propos souligne l'intérêt d'une approche moins managériale de la mise en oeuvre. Les stratégies d'activation contribuent à mettre en évidence un répertoire très fin de jeux d'acteurs, à systématiser une analyse actorielle souvent réduite au minimum en raison de la difficulté à en rendre compte. L'ouvrage apporte en ce sens une véritable plus-value à l'analyse des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse la co-évolution de deux secteurs dans la politique de la santé: santé publique (public health) et soins aux malades (health care). En d'autres termes, la relation entre les dimensions curative et préventive de la politique de la santé et leur développement dans la durée. Une telle recherche est nécessaire car les problèmes de la santé sont complexes et ont besoin de solutions coordonnées. De plus, les dépenses de la santé ont augmenté sans arrt durant les dernières décennies. Un moyen de réduire une future augmentation des dépenses pourrait consister en davantage d'investissement dans des mesures préventives. En relation avec cette idée, ma recherche analyse les politiques de la santé publique et les soins aux malades de cinq pays: Allemagne, Angleterre, Australie, Etats-Unis et Suisse. En m'appuyant sur la littérature secondaire, des statistiques descriptives et des entretiens avec des experts et des politiciens, j'analyse la relation entre les deux secteurs depuis la fin du dix-neuvième siècle. En particulier, je me focalise sur la relation des deux champs sur trois niveaux: institutions, acteurs et politiques. Mes résultats montrent les similitudes et les différences d'évolution entre les cinq pays. D'un c^oté, lorsque la profession médicale est politiquement active et que le pays consiste en une fédération centralisée ou en un gouvernement unitaire, les deux secteurs sont intégrés au niveau institutionnel, ralliant les professions et groupes d'intérêt des deux secteurs la cause commune dans une activité politique. Par contre, dans tous les pays, les deux secteurs ont co-évolué vers une complémentarité malgré de la politisation des professions et la centralisation du gouvernement. Ces résultats sont intéressants pour la science politique en général car ils soulignent l'importance des professions pour le développement institutionnel et proposent un cadre pour l'analyse de la co-évolution des politiques publiques en général. -- This Ph.D. thesis analyzes the co-evolution of the health care and the public health sectors. In other words, the relation between preventive and curative health policy and its evolution over time. Such research is necessary, because current health problems are complex and might need coordinated solutions. What is more, health expenditures have increased continuously in the last decades. One way to slow down further increase in health spending could be to invest more in preventative health policies. Therefore, I am connecting individual health care and public health into a common analysis, taking Australia, Germany, Switzerland, the UK and the U.S. as examples. Based on secondary literature, descriptive statistics and interviews with experts and policymakers, I am analyzing how the two sectors' relations co-evolved between the late nineteenth and the early twenty-first century. Specifically, I am researching how health care and public health were related on the levels of institutions, actors and policies. My results show that there are differences and similarities in the co-evolution of policy sectors between these countries. On the one hand, when the medical profession was politically active and the country a centralized federation or a unitary state, there was institutional integration and common political advocacy of the sectors' interest groups and professions. On the other hand, in all countries, both sectors co-evolved towards complementarity, irrespectively of the politicization of professions and centralization of government. These findings are interesting for the political science literature at large, because they underline the importance of professions for institutional development and propose an analytical framework for analyzing the co-evolution of policy sectors in general.