999 resultados para Imagerie mentale visuelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats des enquêtes HBSC et SMASH donnent une image contrastée de la situation. Du côté des informations préoccupantes, on notera une relative péjoration de la santé mentale des adolescents. Ainsi, au cours des dernières années, nous ne sommes pas parvenus à infléchir la courbe ascendante de consommation de substances psychoactives. Les troubles du comportement alimentaire, tout comme certaines conduites déviantes, sont en augmentation. Les taux d'adolescents rapportant une humeur dépressive, du stress et les taux de conduites suicidaires sont stables...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome douloureux fémoro-patellaire (SDFP) est l'une des causes les plus fréquentes de douleur antérieure du genou chez l'adolescent et l'adulte. De par son étiologie complexe, multifactorielle et encore mal comprise, sa prise en charge est un important challenge pour le praticien. Le diagnostic se fait principalement sur l'anamnèse et l'examen clinique du genou mais aussi de l'ensemble du membre inférieur, pouvant parfois nécessiter la réalisation d'une imagerie. Le traitement est dans la grande majorité des cas conservateur, principalement axé sur la rééducation avec de la physiothérapie ciblée et personnalisée. Le traitement chirurgical est réservé aux cas présentant une anomalie structurelle causale. Patellofemoral pain syndrome (PFPS) is one of the most frequent cause of anterior knee pain in adolescents and adults. Due to its complex etiology, which is multifactorial and still poorly understood, its management is a major challenge for the practitioner. The diagnosis is made primarily on the history and clinical examination of the knee, but also of the entire lower limb, which may sometimes require the completion of imaging. The treatment is mostly conservative, focussing on rehabilitation with targeted and personalized therapy. Surgical treatment is reserved for cases with a causal structural lesion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CERN-MEDICIS (Medical Isotopes Collected from ISOLDE) est une plateforme de recherche destinée à la production de radioisotopes biomédicaux. Inauguré en 2014, il produira progressivement un nombre croissant de radioisotopes grâce au faisceau de protons ISOLDE déjà existant. Ce projet réunit des spécialistes du cancer, des chirurgiens, des experts en médecine nucléaire, en radiochimie et radiopharmacie et les scientifiques du CERN. Les radioisotopes ainsi produits seront destinés à la recherche fondamentale contre le cancer, à des études précliniques ainsi qu'au développement de protocoles d'imagerie et de thérapie destinés aux patients.Le CERN, les HUG, le CHUV, l'ISREC et l'EPFL qui soutiennent ce projet seront les premiers bénéficiaires de ces radioisotopes novateurs dont la distribution sera ensuite étendue à d'autres centres européens. CERN-MEDICIS is a facility dedicated to research and development in life science and medical applications. The research platform was inaugurated in October 2014 and will produce an increasing range of innovative isotopes using the proton beam of ISOLDE for fundamental studies in cancer research, for new imaging and therapy protocols in cell and animal models and for preclinical trials, possibly extended to specific early phase clinical studies (phase 0) up to phase I trials. CERN, the University Hospital of Geneva (HUG), the University Hospital of Lausanne (CHUV), the Swiss Institute for Experimental Cancer (ISREC) at Swiss Federal Institutes of Technology (EPFL) that currently support the project will benefit of the initial production that will then be extended to other centers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'année 2014 a été marquée par de nouvelles acquisitions thérapeutiques en médecine d'urgence.L'estimation de la probabilité d'une néphrolithiase permet d'éviter une imagerie chez les patients à haut risque. L'hypothermie thérapeutique post-arrêt cardiorespiratoire n'a pas de bénéfice par rapport à une stratégie de normothermie contrôlée. Le traitement d'une bronchite aiguë sans signe de gravité par co-amoxicilline ou AINS est inutile. L'adjonction de colchicine au traitement standard de la péricardite aiguë diminue le risque de récidive. L'ajustement du seuil de D-dimères à l'âge permet de réduire le recours à l'imagerie en cas de risque non élevé d'embolie pulmonaire. Enfin, un monitorage invasif précoce n'apporte pas de bénéfice à la prise en charge initiale du choc septique. The year 2014 was marked by new therapeutic acquisitions in emergency medicine. Nephrolithiasis likelihood estimation should avoid imaging in patients at high risk. Therapeutic hypothermia post cardio-respiratory arrest has no benefit compared to a strategy of controlled normothermia. Treatment of acute bronchitis with no signs of severity by coamoxicillin or NSAIDs is useless. Adding colchicine to standard treatment of acute pericarditis reduces the rate of recurrence. The D-dimerthreshold adjustment by age reduces the number of imaging in case of low or intermediate risk of pulmonary embolism. Finally, the speed of the initial management of septic shock is crucial to the outcome of patients, but an early invasive monitoring provides no benefit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La coexistence des charges professionnelles, familiales, et d'aide à des ascendants expose la Génération Sandwich (GS) à des risques potentiels pour sa santé. Toutefois, les connaissances sur la GS sont insuffisantes pour permettre aux infirmières du secteur de la santé au travail de développer des interventions en promotion de la santé basées sur des preuves. Ce manque de clarté est préoccupant au vu de certaines tendances sociodémographiques. La présente étude vise à dresser le portrait des travailleurs de la GS en examinant les liens entre leurs caractéristiques, leurs charges co-existantes et leur santé perçue. Pour ce faire, nous avons développé un cadre de référence salutogénique. puis, nous l'avons utilisé pour conduire une recherche descriptive corrélationnelle transversale. un questionnaire électronique a permis de récolter les données de 826 employés d'une administration publique suisse. L'examen a montré que 23.5 % de l'échantillon appartenait à la GS. Cette appartenance ne dépendait pas du sexe. la charge de travail totale (70.5 h/sem) de la GS différait significativement de celle du reste de l'échantillon (62.8 h/sem). Nous n'avons pas trouvé de relation entre cette charge totale et la santé physique ou mentale des femmes. En revanche, il y avait une relation négative entre cette charge totale et la santé physique des hommes, et cette relation était proche du seuil de significativité pour la santé mentale de ces derniers. Grâce à une analyse soucieuse de faire évoluer favorablement les inégalités de genre (gender-transformative), cette étude fournit des pistes pour fonder des interventions préventives en faveur de la santé des membres de la GS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise en charge médicale du mineur non accompagné est complexe et nécessite la mise en place d'un réseau biopsychosocial. A Lausanne, l'Unité multidisciplinaire de santé des adolescents (UMSA) joue un rôle préventif et curatif pour cette population extrêmement vulnérable. Une prise en charge psychologique rapide est souvent nécessaire en raison des événements de vie dramatiques auxquels la plupart de ces adolescents ont été confrontés. L'absence de projet d'avenir pour la majorité de ces adolescents reste une entrave majeure à leur développement et à leur santé mentale et physique. Medical treatment of an unaccompanied minor is made more complicated firstly by its connections with the politics of immigration and secondly by the difficulty in gaining recognition of the priority of the minor's interests. Enabling healthcare teams to travel and meet these particularly vulnerable youths makes medical care more accessible to them and facilitates an optimal bio-psycho-social treatment. For most of these adolescents it is their lack of plans for the future which remains the major obstacle to their development and mental and physical health.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La grande prématurité, soit une naissance avant 32/40 semaines de gestation, concerne 1% des enfants en Suisse. L'avenir développemental de ces enfants prématurés est influencé pai" des facteurs présents avant la naissance, durant le séjour néonatal, puis par l'environnement. Certains enfants, à terme ou prématurés, naissent avec un poids trop petit pour l'âge gestationnel (Retard de Croissance Intra-utérin, RCIU). Chez les enfants nés à terme, les recherches montrent que cet élément est associé à des troubles du comportement, et notamment une hyperactivité. Chez l'enfant grand prématuré, les résultats sont plus mitigés, certaines études montrent plus de déficiences cognitives, d'autres plus d'hyperactivité, et finalement d'autres aucune séquelle. L'objectif de cette analyse rétrospective était donc d'évaluer l'impact, dans une cohorte d'enfants prématurés nés entre 2000 et 2005, du RCIU sur les scores cognitifs, le risque de déficience motrice, visuelle ou auditive, et le comportement. Durant cette période, 523 patients nés avant 32 semaines de gestation ont été hospitalisés dans notre centre tertiaire, dont 450 ont survécu et 343 (76%) ont été évalués à l'âge de 5 ans. L'évaluation à 5 ans comprenait une anamnèse, un examen neurologique détaillé, une évaluation cognitive au moyen d'un test standardisé, le K-ABC, et un questionnaire de dépistage des troubles du comportement (Strengths and Difficulties Questionnaire). Les analyses de régression ont montré l'absence d'association entre le petit poids de naissance et les score cognitifs, le risque de déficience neuro dé veloppementale (retard mental, paralysie cérébrale, cécité ou surdité), ou l'utilisation de thérapies. Par contre, comme chez les enfants nés à terme, cet élément était significativement associé au comportement hyperactif. Les facteurs néonataux associés au score cognitif dans l'analyse multi variée étaient l'âge gestationnel, le niveau socio-économique et les lésions cérébrales majeures. Le risque de déficience était influencé par l'âge gestationnel, les lésions cérébrales, la consommation de tabac durant la grossesse et l'asphyxie néonatale (pH< 7.0 et encéphalopathie). La présence de lésions cérébrales majeures était associée à l'utilisation de plusieurs thérapies, alors que 1 utilisation d'une seule thérapie était associée à l'âge gestationnel, à la présence d'une entérocolite nécrosante, ou d'une asphyxie néonatale. Conclusion : Dans notre cohorte, le petits poids de naissance chez les enfants grands prématurés n'était associé qu'au comportement hyperactif, et à aucune autre séquelle neurodeveloppementale. Pour mieux définir l'impact du RCIU chez les grands prématurés, des etudes complémentaires, permettant de distinguer les patients avec petit poids constitutionnel de ceux avec retard de croissance, sont nécessaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

4e de couv.: Comment est né le concept moderne, scientifique, de "race" ? Pourquoi est-il devenu si rapidement hiérarchique, distinguant les "races inférieures" des "races supérieures" ? Et comment ce concept a-t-il pu revêtir une telle importance, aussi bien au sein de la communauté scientifique qu'auprès du grand public, au cours du XIXe siècle et du début du XXe siècle, jusqu'à être utilisé pour expliquer l'histoire et le devenir de l'humanité ? Autant d'interrogations, à l'origine de ce livre. L'invention de la race analyse la genèse des conceptions scientifiques de la "race", et montre que les nouvelles techniques de mesure et de représentation des corps racialisés opèrent une révolution visuelle majeure, inscrivant la différence humaine dans la biologie. Cet ouvrage avance qu'à partir d'une origine européenne, l'idée de race s'est étendue - par les connexions transnationales de réseaux scientifiques et marchands -, à tout l'Occident, mais aussi au Japon, à la Corée et à une partie de la Chine. Partout, elle suscite représentations et politique raciales discriminatoires. L'ouvrage montre aussi que les théories sur les hiérarchies raciales ont influencé les spectacles ethniques (dont les zoos humains), les expositions internationales et coloniales, la photographie ou les collections ethnographiques. Les expositions internationales et coloniales et l'internationalisation des spectacles ethniques ont largement véhiculé ces hiérarchies, contribuant forger une vision du monde fondée sur l'inégalité des races.