1000 resultados para Analyse exploratoire par composantes principales
Resumo:
Les cambriolages constituent une délinquence de masse et représentent à cet égard un problème de sécurité prégnant. Les organismes policiers y répondent notamment en faisant intervenir leurs services de police scientifique sur les lieux de cambriolages, dont les missions principales sont de constater l'infraction, de récolter les traces afin d'identifier les auteurs et de les dénoncer à la justice, ainsi que de contribuer au renseignement criminel. Ces objectifs traditionnels occultent toutefois une dimension pouvant s'avérer importante de ce type d'interventions de haut volume, à savoir la relation et la communication entre l'inspecteur de police scientifique et les lésés chez lesquels il intervient. On constate à ce sujet un manque de connaissances quant à la perception que les lésés ont des interventions de la police scientifique. En sont-ils satisfaits ? Les jugent-ils utiles ? S'inquiètent-ils des résultats obtenus et de la résolution de leur cambriolage ? S'estiment-ils suffisamment informés ou conseillés en matière de prévention ? Cette étude aborde ces questions au travers d'un sondage inédit entrepris auprès de 77 lésés de cambriolages chez lesquels le Service forensique de la Police neuchâteloise est intervenu. Les réponses des lésés indiquent qu'ils ont, dans l'ensemble, une très bonne opinion de l'intervention de la police scientifique et de ses différentes composantes. Parallèlement, il ressort que les 14 inspecteurs du Service forensique, également questionnés, projettent sur les lésés une opinion en partie plus pessimiste qu'elle ne l'est en réalité. L'étude permet ainsi d'identifier des points pour lesquels la communication doit être améliorée, par exemple en ce qui concerne les conseils en matière de prévention. L'article est ponctué par une proposition de modèle conceptuel qui étend les rôles et les missions traditionnellement attribués aux services de police scientifique et qui vise à intégrer la participation aux efforts de prévention, de proximité, de réassurance et de prise en charge des lésés.
Resumo:
Il y a aujourd'hui un relatif consensus autour de l'émergence de l'agriculture urbaine. Les projets d'agriculture urbaine se développeraient, car il y aurait une nécessité à réinstaurer des relations entre l'urbain et l'agricole. Les dispositifs qui ont été mis en place par la modernité comme le zonage, l'économie de marché, les transports, l'usage de fertilisants ou les filières agroalimentaires auraient en effet fait disparaître ces relations qu'il s'agirait aujourd'hui de reconnecter. L'agriculture urbaine serait alors présentée comme une stratégie alternative à cette distinction. Elle serait le résultat de relations réciproques - et donc équivalentes - entre l'urbain et l'agricole. Elle serait alors à la fois urbaine et agricole. Nous pensons qu'il faut sortir aujourd'hui de cette conception d'agriculture urbaine. Nous remettons tout d'abord en question le fait que l'agriculture urbaine aurait pour objectif de reconnecter l'urbain et l'agricole. Cela présuppose qu'il n'y aurait plus de relations durant la modernité entre l'agricole et l'urbain. Or, comme le montre l'étude des aspects spatiaux, fonctionnels et sociaux de ces relations sous la modernité pour les cas de Genève et de Tokyo, ces relations existeraient toujours, voire même s'intensifieraient. Nous cherchons aussi à montrer qu'il faut faire évoluer l'idée que l'agriculture urbaine étant le résultat de relations réciproques entre l'urbain et l'agricole, elle se devait d'être à la fois urbaine et agricole. Dans les faits, l'agriculture urbaine apparaît plus souvent comme un projet de l'urbain au bénéfice de celui-ci, que comme un projet partagé entre l'urbain et l'agricole. Enfin, nous mettons en avant que l'agriculture urbaine n'aurait pas la capacité de reconnecter de façon effective l'agricole et l'urbain. Ainsi, l'agriculture urbaine n'est pas en mesure de se substituer aux dispositifs mis en place par la modernité. Elle ne peut rendre les villes autonomes en denrées alimentaires, établir des symbioses agro-urbaines ou remettre en question le système des filières agroalimentaires. Dans ce contexte, nous défendons la thèse que la conception d'agriculture urbaine doit aujourd'hui évoluer vers celle de toshinogyo. L'objectif est alors de rendre visibles les relations entre l'agricole et l'urbain. Les dispositifs mis en place sous la modernité n'ont pas eu pour effet de supprimer les relations entre l'urbain et l'agricole, mais de les rendre invisibles. Il s'agit aujourd'hui de leur redonner une visibilité. En devenant cette prise qui rend visibles ces relations, la toshinogyo ne serait alors plus tenue d'être urbaine et agricole à la fois, de même qu'elle ne s'opposerait pas aux dispositifs modernes, mais en serait complémentaire. Dans le contexte Genevois, le passage de l'agriculture urbaine à la toshinogyo est loin d'être encore évident. Dans le cas de Tokyo, l'optique de la toshinogyo est clairement affirmée et pourrait alors donner des amorces de pistes à suivre.
Resumo:
Au coeur même du premier paquet de sept accords bilatéraux conclu entre la Suisse et la Communauté européenne le 21 juin 1999, l'Accord sur la libre circulation des personnes (ALCP) vise à garantir la libre circulation et à faciliter la prestation de services sur le territoire des parties contractantes. Or la réalisation de ces objectifs dépend avant tout de la mise en oeuvre effective de l'interdiction de discrimination en raison de la nationalité consacrée par l'ALCP, véritable clé de voûte de l'Accord. Le présent ouvrage s'attache, dans un premier temps, à l'analyse du principe de libre circulation et à l'examen du fonctionnement de l'ALCP - examen portant notamment sur le rôle joué par la jurisprudence de la Cour de justice des Communautés européennes dans le cadre de l'interprétation de cet Accord (Partie I). Dans un second temps, cet ouvrage se penche sur la question centrale de l'interdiction de discrimination en raison de la nationalité (Partie II). Pour ce faire, il propose tout d'abord une définition de la notion de discrimination elle-même et détermine ensuite le champ d'application matériel et personnel des principales dispositions de l'ALCP interdisant les discriminations. Dans ce cadre, une attention toute particulière est accordée à la question de la potentielle portée horizontale de ces dispositions. Ensuite, l'ouvrage procède à une analyse complète des principes et dispositions susceptibles de limiter la portée de cette interdiction,avant de conclure par un examen détaillé des conséquences administratives et civiles induites par la présence d'un cas de discrimination effectif.
Resumo:
Our contribution aims to explore some intersections between forensic science and criminology through the notion of time. The two disciplines analyse the vestiges of illicit activities in order to reconstruct and understand the past, and occasionally to prevent future harms. While forensic science study the material and digital traces as signs of criminal activities and repetitions, criminology contributes to the acquisition of knowledge through its analysis of crime, its authors and victims, as well as social (re)actions to harmful behaviours. Exploratory, our contribution proposes a conceptual delimitation of the notion of time considering its importance in the study of criminality and harms. Through examples, we propose a "crimino-forensic" analysis of three types of actions of social control - prevention, investigation and intelligence - through their respective temporality (before, near or during and after the criminal activity or harm). The temporal issues of the different methodologies developed to appreciate the efficiency of these actions are also addressed to highlight the connections between forensic science and criminology. This attempt to classify the relations between different times and actions of social control are discussed through the multiple benefits and challenges carried out by the formalisation of fusing those two sciences. Notre contribution vise à explorer quelques intersections entre la science forensique (ou criminalistique) et la criminologie au travers de la notion de temps. En effet, les deux disciplines ont en commun qu'elles analysent les vestiges du phénomène criminel pour tenter de reconstruire et comprendre le passé et parfois prévenir de futurs incidents. Alors que la science forensique étudie les traces matérielles et numériques comme signe d'activités et de répétitions criminelles, la criminologie contribue à l'avancée des connaissances en ce domaine par son analyse des comportements contraires aux normes, de leurs auteurs et de leurs victimes, ainsi que des (ré)actions sociales à ces comportements. A but exploratoire, notre contribution propose une délimitation conceptuelle de la notion de temps en regard de l'importance que revêtent ses différentes manifestations dans l'étude de la criminalité. A l'appui d'exemples, nous proposons une analyse « crimino-forensique » de trois types d'action de contrôle social - la prévention, l'investigation et le renseignement - en fonction de leur temporalité respective (avant, proche voire pendant et après l'activité criminelle). Les enjeux temporels entourant les différentes stratégies méthodologiques développées pour apprécier l'efficacité de ces actions sont aussi abordés pour mettre en évidence des pistes d'intégration entre la science forensique et la criminologie. Cet essai de classification des relations entre les temps et ces trois actions de contrôle social est discuté sous l'angle des bénéfices, multiples, mais aussi des défis, que pose la formalisation des liens entre ces deux disciplines des sciences criminelles.
Resumo:
Le taux de réadmission à 30 jours de la sortie de l'hôpital est un indicateur de la qualité de prise en charge hospitalière pouvant refléter des soins suboptimaux ou une coordination insuffisante avec les intervenants ambulatoires. Il existe un algorithme informatisé validé dénommé SQLape® qui, basé sur des données administratives suisses, les codes diagnostiques et les codes d'interventions, permet d'identifier rétrospectivement les réadmissions potentiellement évitables (REAPE), avec une haute sensibilité (96%) et spécificité (96%). Sont considérées REAPE, les réadmissions précoces (< 30 jours), non planifiées à la sortie du séjour index et dues à un diagnostic déjà actif lors du précédent séjour ou dues à une complication d'un traitement. Le but de notre étude a été d'analyser rétrospectivement tous les séjours des patients admis dans le service de Médecine Interne du CHUV entre le 1 janvier 2009 et le 31 décembre 2011, afin de quantifier la proportion de REAPE, puis d'identifier des facteurs de risques afin d'en dériver un modèle prédictif. Nous avons analysé 11'074 séjours. L'âge moyen était de 72 +/- 16,8 ans et 50,3 % étaient des femmes. Nous avons comptabilisé 8,4 % décès durant les séjours et 14,2 % réadmissions à 30 jours de la sortie, dont la moitié (7,0 %) considérées potentiellement évitables selon SQLape®. Les facteurs de risques de REAPE que nous avons mis en évidence étaient les suivants : au moins une hospitalisation antérieure à l'admission index, un score de comorbidité de Charlson > 1, la présence d'un cancer actif, une hyponatrémie, une durée de séjour > 11 jours ou encore la prescription d'au moins 15 médicaments différents durant le séjour. Ces variables ont été utilisées pour en dériver un modèle prédictif de REAPE de bonne qualité (aire sous la courbe ROC de 0,70), plus performant pour notre population qu'un autre modèle prédictif développé et validé au Canada, dénommé score de LACE. Dans une perspective d'amélioration de la qualité des soins et d'une réduction des coûts, la capacité à identifier précocement les patients à risque élevé de REAPE permettrait d'implémenter rapidement des mesures préventives ciblées (par exemple un plan de sortie détaillé impliquant le patient, son entourage et son médecin traitant) en plus des mesures préventives générales (par exemple la réconciliation médicamenteuse)
Resumo:
Ce travail de recherche vise à explorer le lien entre l'interprétation des mécanismes de défense, élément fondamental de la technique psychanalytique, et l'alliance thérapeutique. Il a été démontré que celle-ci est un prédicteur robuste des résultats en psychothérapie, indépendamment des modalités de traitement et des types de patients. Dans la littérature, quelques liens positifs ont déjà pu être établis entre l'interprétation en général et le développement de l'alliance thérapeutique en psychothérapie psychanalytique. Nous avons choisi de regarder de plus près quelle forme peut prendre ce lien et quelle peut être la valeur de l'interprétation lors des processus de fluctuation de l'alliance thérapeutique qui sont conceptualisés comme séquences de rupture et de résolution de l'alliance. Nous nous sommes particulièrement intéressés aux effets de la concentration des interventions du thérapeute sur l'interprétation des mécanismes de défense déployés par le patient à ces moments-là. Nous avons choisi des patients (n=17) en traitement psychodynamique dans lequel l'alliance thérapeutique, mesurée après chaque séance au moyen de l'Echelle d'alliance aidante (Haq), montrait une séquence de rupture et résolution. Deux séances « contrôle » (5ème et 15èm<>) ont également été sélectionnées. Les interventions du thérapeute ont été examinées et qualifiées à l'aide du 'Psychodynamic Intervention Rating Scale' et de l'Echelle d'évaluation des mécanismes de défense afin d'identifier parmi elles celles qui portaient sur l'interprétation des mécanismes de défense. Nous n'avons pas trouvé de différences significatives entre les séances de rupture, les séances de résolution et les séances de contrôle en ce qui concerne la fréquence relative des trois grandes catégories d'interventions thérapeutiques, à savoir l'interprétation, le soutien et la définition du cadre. Par contre, comparées aux séances de contrôle, les séances de rupture de l'alliance thérapeutique étaient caractérisées par moins d'interprétations des défenses et particulièrement des défenses « intermédiaires » (essentiellement névrotiques). Les séances de résolution de l'alliance thérapeutique étaient caractérisées par la présence de plus d'interprétations des défenses « intermédiaires ». Ces résultats soutiennent l'hypothèse de l'existence d'un lien entre des éléments spécifiques de la technique utilisés dans le travail clinique et le processus de l'alliance thérapeutique en psychothérapie psychodynamique. Sur la base de la littérature on peut considérer que, en partie au moins, une interprétation précise et faite au moment opportun peut avoir un effet favorable sur l'alliance thérapeutique. Nos résultats indiquent que c'est la concentration des interprétations sur les mécanismes de défense (par rapport à d'autres éléments, comme les pulsions ou l'affect) qui est la plus succeptible d'être associée au développement de l'alliance. Ceci est en accord avec une longue tradition en psvchothérapie psychanalytique qui considère que la mise à jour des motions refoulées est principalement realisée au moyen de la défaite des résistances. Viser en particulier les défenses "intermédiaires" dans ce type de travail peut être vu comme un moyen de réengager le patient dans le processus d'exploration commune auquel les défenses de ce niveau peuvent faire obstacle.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Les importants progrès dans la qualité et la résolution des images obtenues par «absorptiométrie biphotonique à rayons X» ou DXA ont amélioré certaines modalités existantes et favorisé le développement de nouvelles fonctions permettant d'affiner de manière significative la prise en charge de nos patients dans diverses pathologies. On peut par exemple améliorer la prédiction du risque fracturaire par l'analyse indirecte de la micro et de la macroarchitecture osseuse, rechercher les marqueurs de pathologies associées (recherche de fractures vertébrales ou de fractures fémorales atypiques), ou évaluer le statut métabolique par la mesure de la composition corporelle. Avec les appareils DXA les plus performants, on pourra bientôt déterminer l'âge osseux, estimer le risque cardiovasculaire (par la mesure de la calcification de l'aorte abdominale), ou prédire la progression de l'arthrose articulaire et son évolution après la prise en charge chirurgicale dans la routine clinique. The significant progress on the quality and resolution of the images obtained by "Dual X-ray Absorptiometry" or DXA has permitted on one hand to improve some existing features and on the other to develop new ones, significantly refining the care of our patients in various pathologies. For example, by improving the prediction of fracture risk by indirect analysis of micro- and macro-architecture of the bone, by looking for markers of associated bone diseases (research vertebral fractures or atypical femoral fractures), or by assessing the metabolic status by the measurement of body composition. With the best performing DXA devices we will soon be able, in clinical routine, to determine bone age, to estimate cardiovascular risk (by measuring the calcification of the abdominal aorta) or to predict the progression of joint osteoarthritis and its evolution after surgical management.
Resumo:
[Table des matières] Introduction - Méthode - Résultats : 1. Caractéristiques générales des demandes adressées aux EMSP, 2. Profil des patients concernés par les demandes, 3. Origine de la demande, 4. Nature des demandes adressées aux EMSP, 5. Activités des EMSP en lien avec les demandes - Discussion - Conclusion - Annexes
Resumo:
L'Office fédéral de la santé publique (OFSP) a mandaté la Fédération romande des consommateurs (FRC) et l'Institut universitaire de médecine sociale et préventive (IUMSP) pour réaliser une cartographie du marché des préservatifs et analyser les données disponibles pour estimer le nombre de préservatifs écoulés sur le marché suisse en une année. Les données disponibles identifiées sont les suivantes : 1. Données Verein : l'Association pour le label de qualité des préservatifs possède des données sur le nombre de préservatifs testés chaque année pour l'obtention du label OK. Ces données constituent une estimation du nombre de préservatifs ayant suivi la procédure de certification du label OK. Ces dernières années, des entreprises auraient renoncé à leur collaboration avec l'association pour le label de qualité, ce qui réduit la fiabilité de cette méthode pour suivre l'évolution du marché des préservatifs en Suisse. 2. Données douanes : l'Administration fédérale des douanes établit une statistique du commerce extérieur et met à disposition une base de données qui donne accès aux données statistiques d'importation et d'exportation de préservatifs. Etant donné que cette statistique se base sur les données indiquées par les importateurs et les exportateurs, des erreurs de déclaration peuvent être commises. 3. Données IUMSP : entre 1986 et 2011, l'IUMSP a reçu des producteurs/importateurs des données de mises sur le marché de préservatifs. Ces données, fiables car provenant directement des producteurs/importateurs, ne sont malheureusement plus complètes depuis 2012, en raison d'une difficulté croissante à obtenir de telles informations. 4. Données Nielsen et IMS Health : Nielsen et IMS HEalth sont des entreprises privées qui recensent les données de vente des préservatifs en Suisse réalisées dans les commerces de détail, ainsi que dans les drogueries et pharmacies. Ces données constituent des données de vente réelles obtenues grâce à l'enregistrement des mouvements de la marchandise lors du passage en caisse dans les magasins. La couverture des points de vente est élevée (près de 80% pour les données Nielsen) et stable dans le temps.
Resumo:
A partir d'une étude quantitative de grande envergure des communautés religieuses menées en Suisse, ce chapitre analyse les positions d'autorité selon le genre en s'intéressant aux différents facteurs qui favorisent l'implication des femmes aux postes à responsabilité et en comparant les spécificités des communautés pentecôtistes aux autres communautés religieuses. Si les femmes constituent la majorité des fidèles pentecôtistes et 35% des salariés à temp partiel, seules 4% des communautés sont dirigés par une femme. Parmi les facteurs qui permettent aux femmes d'accéder à des postes à responsabilités, le nombre de salariés apparaît déterminant, car il permet d'inclure les femmes dans l'équipe pastorale sans bouleverser le leadership. En revanche, les variables théologiques n'ont pas d'incidence significative, la revendication d'une théologie conservatrice pouvant aller de pair avec la présence de femmes dans la hiérarchie ecclésiale. Au-delà du décalage supposé entre théorie et pratique, ce chapitre invite à s'interroger sur l'utilisation en sociologie des religions d'arguments théologiques qui ne sont pas forcément pertinent du point de vue sociologique.
Resumo:
Abstract This work studies the multi-label classification of turns in simple English Wikipedia talk pages into dialog acts. The treated dataset was created and multi-labeled by (Ferschke et al., 2012). The first part analyses dependences between labels, in order to examine the annotation coherence and to determine a classification method. Then, a multi-label classification is computed, after transforming the problem into binary relevance. Regarding features, whereas (Ferschke et al., 2012) use features such as uni-, bi-, and trigrams, time distance between turns or the indentation level of the turn, other features are considered here: lemmas, part-of-speech tags and the meaning of verbs (according to WordNet). The dataset authors applied approaches such as Naive Bayes or Support Vector Machines. The present paper proposes, as an alternative, to use Schoenberg transformations which, following the example of kernel methods, transform original Euclidean distances into other Euclidean distances, in a space of high dimensionality. Résumé Ce travail étudie la classification supervisée multi-étiquette en actes de dialogue des tours de parole des contributeurs aux pages de discussion de Simple English Wikipedia (Wikipédia en anglais simple). Le jeu de données considéré a été créé et multi-étiqueté par (Ferschke et al., 2012). Une première partie analyse les relations entre les étiquettes pour examiner la cohérence des annotations et pour déterminer une méthode de classification. Ensuite, une classification supervisée multi-étiquette est effectuée, après recodage binaire des étiquettes. Concernant les variables, alors que (Ferschke et al., 2012) utilisent des caractéristiques telles que les uni-, bi- et trigrammes, le temps entre les tours de parole ou l'indentation d'un tour de parole, d'autres descripteurs sont considérés ici : les lemmes, les catégories morphosyntaxiques et le sens des verbes (selon WordNet). Les auteurs du jeu de données ont employé des approches telles que le Naive Bayes ou les Séparateurs à Vastes Marges (SVM) pour la classification. Cet article propose, de façon alternative, d'utiliser et d'étendre l'analyse discriminante linéaire aux transformations de Schoenberg qui, à l'instar des méthodes à noyau, transforment les distances euclidiennes originales en d'autres distances euclidiennes, dans un espace de haute dimensionnalité.
Resumo:
Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.
Resumo:
Problématique: Les naissances prématurées sont des situations cliniques à risque pour l'enfant. Celui-ci arrive au monde avec une capacité amoindrie à être autonome, que ce soit, par exemple, au niveau respiratoire ou de la régulation thermique. Lors de leur séjour aux soins intensifs, les enfants prématurés subissent des interventions qui peuvent être douloureuses, ils sont souvent manipulés et exposés à des bruits et des lumières intenses; ceci peut induire un stress important pour l'enfant qui est déjà vulnérable du fait de sa prématurité. Lorsque confronté à une situation stressante, l'organisme humain réagit par l'activation de l'axe hypothalamo-hypophysio-surrénalien (HHS). Une des hormones principales sécrétées par l'axe HHS est le cortisol. Plusieurs études suggèrent que le cortisol, lorsque sécrété en quantités importantes, risque d'altérer la matière grise, en induisant une diminution de volume, notamment celui de l'hippocampe (Plotsky & Meaney, 1993; Sapolsky, 2000; McEwen, 1994; 2000; Sandman et al., 1994; Meaney et al., 1991;1996). Ces altérations auraient comme effet un dérèglement de l'axe HHS (Heim & Nemeroff, 1999) avec comme conséquence une variation de la réponse au stress mais aussi de la mémoire et de la régulation émotionnelle (Stam et al., 2000 et Siegel, 1998). Objectifs: Nous allons nous intéresser aux grands prématurés nés à moins de 32 semaines de gestations selon leur exposition à des interventions stressantes et douloureuses ou des complications postnatales. Nous allons étudier l'impact qu'un stress modéré ou sévère sur un prématuré a sur la réponse de l'axe HHS et sur sa régulation émotionnelle lorsque celui-ci est confronté à des situations de stress modéré ultérieurement, plus précisément à six mois d'age corrigé. Méthodologie: Dans le cadre de l'étude «Stress néonatal et réactivité au stress ultérieur: effets préventifs d'une intervention précoce» (SNF 3200 BO-104230) menée au SUPEA en collaboration avec le service de néonatologie du DMCP, le Lab-TAB (Laboratory Temperament Assessment Battery, prelocomotor version 3.1, Goldsmith & Rothbart, 1999) a été utilisé comme outil pour analyser le tempérament d'un enfant par l'analyse de ses réactions émotionnelles à certaines situations. L'enfant, qui était filmé, a été confronté à des mises en scène conçues pour susciter diverses émotions comme la peur, la colère, la frustration, la curiosité ou le plaisir. Un système de codage dérivé de celui du Lab-TAB sera utilisé par deux codeurs différents pour analyser les réactions émotionnelles des enfants. Les taux de cortisol sécrétés ont été mesurés dans la salive de l'enfant. La mesure du cortisol libre dans la salive montre une bonne corrélation avec le cortisol plasmatique ; plusieurs prélèvements de salive ont été faits avant, pendant et après la situation de stress. Les situations filmées n'ont pas encore été codés, ni les taux analysés par l'équipe de la SUPEA. Nous allons observer 40 vidéos, 20 d'enfants nés prématurément et 20 d'enfants nés à terme comme groupe contrôle, et examiner la réponse endocrinienne au stress ainsi que leur régulation émotionnelle au niveau de leur comportement comme l'excitation, les pleurs, l'évitement... Hypothèse : L'intensité de l'exposition au stress postnatal chez l'enfant prématuré induirait des variations de la réponse de l'axe HHS mais aussi de la régulation émotionnelle. Il n'est pas clair selon la littérature actuelle si les variations des réponses de l'axe HHS dues à l'exposition à un stress précoce vont dans les sens de l'hypo- ou l'hyperréactivité, et si cette réponse corrèle avec la régulation émotionnelle au niveau des comportements. C'est ce que l'analyse des données nous permettra de déterminer.
Resumo:
Dans le chapitre « Les paradoxes de l'argumentation en contexte d'éducation: s'accorder sur les désaccords », Muller Mirza part de l'idée qu'à la différence des situations ordinaires de désaccords, les dispositifs utilisant l'argumentation dans des contextes d'éducation demandent aux participants précisément de résoudre ces désaccords. Leur sont donc interdites, par contrat plus ou moins implicite, les échappatoires auxquelles nous recourons volontiers dans les discours quotidiens qui permettent d'éviter de problématiser la question en discussion. C'est dire qu'elle aborde directement une difficulté souvent signalée dans les études sur l'argumentation en contexte éducatif : la tension entre d'une part l'expression de points de vue différents, étape nécessaire à la construction des connaissances, et d'autre part la préservation de la relation entre les interlocuteurs, de leurs faces. Le chapitre propose comme objet de discussion le rôle de cette tension dans des situations d'apprentissage en analysant des productions argumentatives réalisées dans le cadre d'un dispositif particulier. Il invite ainsi à une réflexion non seulement sur les ingrédients des dispositifs pédagogiques qui permettraient de prendre en compte cette tension mais aussi sur les méthodes d'analyse des interactions argumentatives. L'étude de cas met en scène des étudiants de master en psychologie sociale, dans le cadre d'un jeu de rôle : ils sont placés dans la perspective de leur futur métier, et figurent des psychologues conseillant des éducateurs face à des jeunes qui utilisent des insultes racistes entre eux. Le dispositif mis en oeuvre satisfait quatre exigences d'ordre théorique, favorables selon l'auteure à une bonne résolution des désaccords : le ménagement des faces des interlocuteurs en fixant des rôles ne correspondant pas nécessairement aux positions de chacun ; la construction de connaissances,préalable à la discussion ; la médiation de l'échange par un outil, ici un « chat », qui permet d'échanger les points de vue et d'apporter une dimension réflexive en cours d'interaction sur les points de vue exprimés ; le fait de donner du sens à l'activité, en simulant une situation professionnelle potentielle. L'analyse des échanges a été réalisée sur onze corpus constitués par les étudiants en petits groupes de trois ou quatre travaillant sur un logiciel de « chat ». Les questions abordées étaient les suivantes : Comment les interlocuteurs négocient-ils les désaccords qui apparaissent au cours des échanges? Ces désaccords sont-ils propices à une problématisation? Les participants mettent-ils en oeuvre des dynamiques d'« exploration » du désaccord relevé? Cette analyse, inspirée d'une approche socioculturelle reprise en partie des travaux de Neil Mercer sur les « discours exploratoires », met en évidence des dynamiques argumentatives de qualité au cours desquels les désaccords sont non seulement exprimés mais également problématisés au sein des groupes. Elle met entre autres en évidence que le sens de l'activité pour les étudiants est en partie tributaire d'un contrat didactique et pédagogique : leurs échanges sont la base de leur évaluation universitaire. Néanmoins la similitude entre situation d'enseignement et situation professionnelle a largement été perçue par les étudiants et motivante pour eux, ce qui a certainement concouru également à la qualité des échanges.