231 resultados para Procédure pénale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Etude de la valeur pronostique de la biopsie du ganglion sentinelle dans une étude prospective monocentrique de 327 patients atteints de mélanome malin But II s'agit de confirmer la validité de la biopsie du ganglion sentinelle, d'en définir la morbidité, d'investiguer les facteurs prédictifs pour le statut du ganglion sentinelle ainsi que de déterminer les facteurs pronostiques pour la survie sans récidive et la survie spécifique liée à la maladie. Matériel et méthode D'octobre 1997 à décembre 2004, 327 patients consécutifs présentant un mélanome cutané primaire des membres, du tronc et de la tête, sans adénopathie clinique ni métastase à distance ont été inclus. La biopsie du ganglion sentinelle a été réalisée selon la triple technique (lymphoscintigraphie, colorant bleu vital et sonde de détection gamma). Les paramètres et la survie ont été évalués par différentes analyses de régression logistique multiple selon Cox et la survie évaluée selon Kaplan Meier. Résultats Vingt-trois pour cent des patients présentaient au moins un ganglion sentinelle métastatique, ce qui était associé de façon significative à l'épaisseur selon Breslow (p<0.001). Le taux de succès de la biopsie du ganglion sentinelle était de 99.1% et sa morbidité de 7.6%. Avec une durée médiane de suivi de 33 mois, la survie sans récidive à 5 ans était de 43% pour les patients avec un ganglion sentinelle positif et de 83.5% pour ceux avec un ganglion sentinelle négatif. La survie spécifique liée à la maladie à 5 ans était de 49% pour les patients avec un ganglion sentinelle positif et de 87.4% pour ceux avec un ganglion sentinelle négatif. Le taux de faux négatif de la biopsie du ganglion sentinelle était de 8.6%. L'analyse multivariée a démontré que la survie sans récidive était significativement péjorée par :l'épaisseur selon Breslow (RR=5.6, p<0.001), un ganglion sentinelle positif (RR=5.0, p<0.001), et le sexe masculin (RR=2.9, p=0.001). La survie spécifique liée à la maladie était significativement diminuée par : un ganglion sentinelle métastatique (RR=8.4, p<O.OOI), le sexe masculin (RR=6.1, p<0.001), l'épaisseur selon Breslow (RR=3.2, p=0.013), et la présence d'une ulcération (RR=2.6, p=0.015). Conclusion La biopsie du ganglion sentinelle est une procédure fiable avec une haute sensibilité (91.4%) et une faible morbidité (7.6%). L'épaisseur selon Breslow était le seul facteur prédictif significatif pour le statut du ganglion sentinelle. La survie sans récidive était péjorée selon un ordre décroissant par :l'épaisseur selon Breslow, un ganglion sentinelle métastatique, et le sexe masculin. De façon similaire la survie spécifique liée à la maladie était péjorée par : un ganglion sentinelle métastatique, le sexe masculin, l'épaisseur selon Breslow, et une ulcération. Ces données renforcent le statut du ganglion sentinelle en tant que puissant moyen pour évaluer le stade tumoral ainsi que le pronostic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but essentiel de notre travail a été d?étudier la capacité du foie, premier organe de métabolisation des xénobiotiques, à dégrader la cocaïne en présence d?éthanol, à l?aide de deux modèles expérimentaux, à savoir un modèle cellulaire (les hépatocytes de rat en suspension) et un modèle acellulaire (modèle reconstitué in vitro à partir d?enzymes purifiées de foie humain). La première partie a pour objectifs de rechercher les voies de métabolisation de la cocaïne qui sont inhibées et / ou stimulées en présence d?éthanol, sur hépatocytes isolés de rat. Dans ce but, une méthode originale permettant de séparer et de quantifier simultanément la cocaïne, le cocaéthylène et huit de leurs métabolites respectifs a été développée par Chromatographie Phase Gazeuse couplée à la Spectrométrie de Masse (CPG / SM). Nos résultats préliminaires indiquent que l?éthanol aux trois concentrations testées (20, 40 et 80 mM) n?a aucun effet sur la cinétique de métabolisation de la cocaïne. Notre étude confirme que l?addition d?éthanol à des cellules hépatiques de rat en suspension supplémentées en cocaïne résulte en la formation précoce de benzoylecgonine et de cocaéthylène. L?apparition retardée d?ecgonine méthyl ester démontre l?activation d?une deuxième voie de détoxification. La production tardive d?ecgonine indique une dégradation de la benzoylecgonine et de l?ecgonine méthyl ester. De plus, la voie d?oxydation intervenant dans l?induction du stress oxydant en produisant de la norcocaïne est tardivement stimulée. Enfin, notre étude montre une métabolisation complète de la concentration initiale en éthanol par les hépatocytes de rat en suspension. La deuxième partie a pour but de déterminer s?il existe d?autres enzymes que les carboxylesterases formes 1 et 2 humaines ayant une capacité à métaboliser la cocaïne seule ou associée à de l?éthanol. Pour ce faire, une méthode de micropurification par chromatographie liquide (Smart System®) a été mise au point. Dans le cadre de nos dosages in situ de la cocaïne, du cocaéthylène, de la benzoylecgonine, de l?acide benzoïque et de la lidocaïne, une technique par Chromatographie Liquide Haute Performance couplée à une Détection par Barrette de Diode (CLHP / DBD) et une méthode de dosage de l?éthanol par Chromatographie Phase Gazeuse couplée à une Détection par Ionisation de Flamme équipée d?un injecteur à espace de tête (espace de tête CPG / DIF) ont été développées. La procédure de purification nous a permis de suspecter la présence d?autres enzymes que les carboxylesterases formes 1 et 2 de foie humain impliquées dans le métabolisme de la cocaïne et déjà isolées. A partir d?un modèle enzymatique reconstitué in vitro, nos résultats préliminaires indiquent que d?autres esterases que les formes 1 et 2 de foie humain sont impliquées dans l?élimination de la cocaïne, produisant benzoylecgonine et ecgonine méthyl ester. De plus, nous avons montré que les sensibilités de ces enzymes à l?éthanol sont variables.<br/><br/>The main purpose of our work was to study the ability of the liver, as the first organ to metabolise xenobiotic substances, to degrade cocaine in the presence of ethanol. In order to do this, we used two experimental models, namely a cellular model (rat liver cells in suspension) and an a-cellular model (model reconstructed in vitro from purified human liver enzymes). The purpose of the first part of our study was to look for cocaine metabolising processes which were inhibited and / or stimulated by the presence of ethanol, in isolated rat liver cells. With this aim in mind, an original method for simultaneously separating and quantifying cocaine, cocaethylene and eight of their respective metabolites was developed by Vapour Phase Chromatography coupled with Mass Spectrometry (VPC / MS). Our preliminary results point out that ethanol at three tested concentrations (20, 40 et 80 mM) have no effect on the kinetic of metabolisation of cocaine. Our study confirms that the addition of alcohol to rat liver cells in suspension, supplemented with cocaine, results in the premature formation of ecgonine benzoyl ester and cocaethylene. The delayed appearance of ecgonine methyl ester shows that a second detoxification process is activated. The delayed production of ecgonine indicates a degradation of the ecgonine benzoyl ester and the ecgonine methyl ester. Moreover, the oxidising process which occurs during the induction of the oxidising stress, producing norcocaine, is stimulated at a late stage. Finally, our study shows the complete metabolisation of the initial alcohol concentration by the rat liver cells in suspension. The second part consisted in determining if enzymes other than human carboxylesterases 1 and 2, able to metabolise cocaine on its own or with alcohol, existed. To do this, a micropurification method us ing liquid phase chromatography (Smart System®) was developed. A technique based on High Performance Liquid Chromatography coupled with a Diode Array Detection (HPLC / DAD) in the in situ proportioning of cocaine, cocaethylene, ecgonine benzoyl ester, benzoic acid and lidocaine, and a method for proportioning alcohol by quantifying the head space using Vapour Phase Chromatography coupled with a Flame Ionisation Detection (head space VPC / FID) were used. The purification procedure pointed to the presence of enzymes other than the human liver carboxylesterases, forms 1 and 2, involved in the metabolism of cocaine and already isolated. The preliminary results drawn from an enzymatic model reconstructed in vitro indicate that human liver carboxylesterases, other than forms 1 and 2, are involved in the elimination of cocaine, producing ecgonine benzoyl ester and ecgonine methyl ester. Moreover, we have shown that the sensitivity of these enzymes to alcohol is variable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PLAN DE LA RECHERCHE La présentation de ces travaux de recherche est divisée en neuf chapitres : Chapitre 1. Les éléments qui concourent d'un point de vue essentiellement théorique à l'individualité de l'écriture manuscrite sont décrits. Dans un premier temps sont abordés les aspects anatomo-fonctionnels de l'écriture, permettant de saisir quelles sont les contributions musculaires et neuronales de l'individualité de l'écriture. Ensuite sont présentées les caractéristiques de l'écriture telles qu'elles sont étudiées et classifiées par les praticiens, ainsi que la notion de leur variation naturelle. Enfin, les "lois" dites fondamentales de l'écriture sont mentionnées et discutées. Chapitre 2. Les problèmes soulevés lors de débats contradictoires menés au sein de la justice nord-américaine, qui ont porté sur l'admissibilité des expertises d'écritures manuscrites, sont exposés. Ces débats ont mis en évidence la nécessité d'entreprendre des recherches scientifiques approfondies afin d'obtenir des données sur la variabilité des écritures manuscrites. Chapitre 3. Après une présentation de la nécessité de la récolte et de l'analyse de données quantitatives caractérisant l'écriture manuscrite, diverses études ayant cherché à réduire la part de subjectivité au sein du processus d'analyse des écritures sont résumées. Les études se basant sur des mesures ou des classifications effectuées visuellement sont traitées d'abord, suivies des études visant à estimer la fréquence d'apparition de certaines caractéristiques dans certaines populations de scripteurs, puis des études plus récentes taisant intervenir des méthodes de vérification et d'identification de scripteurs. Chapitre 4. Le choix de soumettre la forme des boucles des caractères manuscrits à une étude statistique est justifié, tant par l'importance présumée de son polymorphisme que de sa fréquente utilisation par les praticiens du domaine d'intérêt. Chapitre 5. Les descripteurs de Fourier, utilisés pour caractériser la forme du contour des boucles manuscrites, sont introduits. La mise en évidence de la diversité de leurs domaines d'application précède leur description mathématique, en mettant notamment en avant les avantages de cette technique parmi d'autres méthodes de caractérisation de la Tonne de contours. Chapitre 6. La première partie de la recherche expérimentale est consacrée à la validation de la méthodologie. L'objectif de cette étape consiste à montrer si la procédure d'analyse d'images et les descripteurs de Fourier permettent de démontrer des différences entre des groupes de boucles dont la Tonne est visuellement distincte. Chapitre 7. La variabilité des paramètres de la forme de boucles mesurés au sein d'une population plus importante de scripteurs est étudiée. Des tendances générales de forme permettant de grouper .des scripteurs sont soulignées, puis les caractéristiques particulières pouvant permettre d'individualiser un scripteur sont signalées. Chapitre 8. L'influence de la taille sur la forme des boucles de caractères manuscrits est évaluée, afin de déterminer si des boucles de la même lettre et d'un même scripteur mais de taille différente présentent des aspects de forme distincts. Des tendances générales de modification de la forme ainsi que certaines singularités sont mises en exergue. Chapitre 9. Des modèles d'évaluation permettant de quantifier la valeur probante de l'indice que représente la forme des boucles manuscrites sont exposés. Leur application, qui fait intervenir le rapport de vraisemblance, confirme le potentiel d'individualisation du scripteur mis en évidence précédemment. D'autre part, l'utilisation du rapport de vraisemblance comme métrique confirme les résultats obtenus par diverses méthodes statistiques dans les chapitres précédents. Enfin, la discussion générale résume les apports principaux de cette recherche et en dégage les conséquences pour le praticien, puis propose des pistes possibles pour la poursuite de la recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La hiérarchie de Wagner constitue à ce jour la plus fine classification des langages ω-réguliers. Par ailleurs, l'approche algébrique de la théorie de langages formels montre que ces ensembles ω-réguliers correspondent précisément aux langages reconnaissables par des ω-semigroupes finis pointés. Ce travail s'inscrit dans ce contexte en fournissant une description complète de la contrepartie algébrique de la hiérarchie de Wagner, et ce par le biais de la théorie descriptive des jeux de Wadge. Plus précisément, nous montrons d'abord que le degré de Wagner d'un langage ω-régulier est effectivement un invariant syntaxique. Nous définissons ensuite une relation de réduction entre ω-semigroupes pointés par le biais d'un jeu infini de type Wadge. La collection de ces structures algébriques ordonnée par cette relation apparaît alors comme étant isomorphe à la hiérarchie de Wagner, soit un quasi bon ordre décidable de largeur 2 et de hauteur ω. Nous exposons par la suite une procédure de décidabilité de cette hiérarchie algébrique : on décrit une représentation graphique des ω-semigroupes finis pointés, puis un algorithme sur ces structures graphiques qui calcule le degré de Wagner de n'importe quel élément. Ainsi le degré de Wagner de tout langage ω-régulier peut être calculé de manière effective directement sur son image syntaxique. Nous montrons ensuite comment construire directement et inductivement une structure de n''importe quel degré. Nous terminons par une description détaillée des invariants algébriques qui caractérisent tous les degrés de cette hiérarchie. Abstract The Wagner hierarchy is known so far to be the most refined topological classification of ω-rational languages. Also, the algebraic study of formal languages shows that these ω-rational sets correspond precisely to the languages recognizable by finite pointed ω-semigroups. Within this framework, we provide a construction of the algebraic counterpart of the Wagner hierarchy. We adopt a hierarchical game approach, by translating the Wadge theory from the ω-rational language to the ω-semigroup context. More precisely, we first show that the Wagner degree is indeed a syntactic invariant. We then define a reduction relation on finite pointed ω-semigroups by means of a Wadge-like infinite two-player game. The collection of these algebraic structures ordered by this reduction is then proven to be isomorphic to the Wagner hierarchy, namely a well-founded and decidable partial ordering of width 2 and height $\omega^\omega$. We also describe a decidability procedure of this hierarchy: we introduce a graph representation of finite pointed ω-semigroups allowing to compute their precise Wagner degrees. The Wagner degree of every ω-rational language can therefore be computed directly on its syntactic image. We then show how to build a finite pointed ω-semigroup of any given Wagner degree. We finally describe the algebraic invariants characterizing every Wagner degree of this hierarchy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le concept de responsiveness ou « responsivité » a été proposé dans le domaine de la recherche en psychothérapie pour décrire l'influence mutuelle qui s'exerce continuellement entre patient et thérapeute. La nature responsive des psychothérapies pose alors un problème majeur aux chercheurs, qui adoptent généralement des plans de recherche impliquant des liens de cause à effet et sont en échec dans leur entreprise de mieux comprendre le changement thérapeutique. L'objectif de notre travail est de proposer des pistes pour répondre à ce problème. Nous avons adopté la méthode d'étude de cas, qui permet une analyse en profondeur et en contexte des processus de changement. Dans les deux premières phases de la recherche, nous nous situions dans une approche spécifique à la recherche qualitative en psychothérapie. Nous avons tout d'abord analysé comment le changement s'effectuait chez le patient, en identifiant pas à pas le niveau d'assimilation de ses expériences problématiques. Nous avons ensuite tenté d'appréhender le rôle du thérapeute dans le processus de changement. Notre objectif était d'analyser comment la responsivité du thérapeute pouvait faciliter le processus de changement chez le patient à chaque instant de la thérapie. En suivant une procédure inspirée de l'analyse de la tâche, nous avons identifié pour chaque niveau d'assimilation des interventions thérapeutiques suivies de progression, et élaboré un modèle empirique séquentiel. Dans la troisième phase de la recherche, nous avons effectué un tournant dans notre parcours et sommes allée du côté des sciences du langage. En adoptant une approche dialogique du discours, notre objectif était d'éclairer notre objet d'étude à partir d'une nouvelle perspective et d'ouvrir la réflexion. Nous avons ainsi pu répondre à certaines limites rencontrées dans les premières phases de la recherche, et faire émerger de nouvelles questions et perspectives pour l'étude des processus de changement dans une dimension interactive. -- The concept of responsiveness was developed in psychotherapy research to describe the mutual and constant influence between patient and therapist. The responsive nature of psychotherapy is a serious problem for researchers, who generally adopt research designs involving cause-effect reasoning and fail to better understand therapeutic change. The purpose of our work is to propose some viable possibilities to respond to this problem. We chose the case study method, which enables an analysis in depth and in context of change processes. In the two first phases of research, our approach was specific to qualitative psychotherapy research. We first analyzed how change occurred in the patient, by identifying moment-by-moment the level of assimilation of his or her problematic experiences. We then tried to apprehend the therapist role in the change process. Our aim was to analyze how the therapist responsiveness could facilitate the patient change process at any moment of psychotherapy. We followed a procedure inspired by task analysis and, for each level of assimilation, we identified therapist interventions followed by progression, and elaborated an empirical sequential model. The third phase of research was a turning point, as we went in the field of linguistics. We adopted a dialogical approach of discourse to open up reflection. Thus, we could answer some limitations encountered in the first phases of research, and new questions and perspectives to study change process taking into account the interactive dimension emerged.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stimulation cérébrale profonde (SCP) nécessite l'implantation chirurgicale d'un système comprenant électrodes cérébrales et boîtier(s) de stimulation. Les noyaux cérébraux visés par la méthodologie stéréotaxique d'implantation doivent être visualisés au mieux par une imagerie à haute résolution. La procédure chirurgicale d'implantation des électrodes se fait si possible en anesthésie locale pour faire des mesures électro-physiologiques et tester en peropératoire l'effet de la stimulation, afin d'optimiser la position de l'électrode définitive. Dans un deuxième temps, le ou les générateur(s) d'impulsions sont implantés en anesthésie générale. La SCP pour les mouvements anormaux a une très bonne efficacité et un risque de complications graves faible quoique non nul. Les complications liées au matériel sont les plus fréquentes. Deep brain stimulation (DBS) requires the surgical implantation of a system including brain electrodes and impulsion generator(s). The nuclei targeted by the stereotaxic implantation methodology have to be visualized at best by high resolution imaging. The surgical procedure for implanting the electrodes is performed if possible under local anaesthesia to make electro-physiological measurements and to test intra-operatively the effect of the stimulation, in order to optimize the position of the definitive electrode. In a second step, the impulsion generator(s) are implanted under general anaesthesia. DBS for movement disorders has a very good efficacy and a low albeit non-zero risk of serious complications. Complications related to the material are the most common.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études ont mis en évidence le fait que les individus étaient prêts à commettre des actes discriminatoires pour autant qu'ils puissent les justifier (Crandall & Eshleman, 2003). Nous proposons de contribuer à la compréhension de ce phénomène grâce au concept de désengagement moral pour des actes discriminatoires (DMD). Nous définissons le désengagement moral comme le fait de justifier ses propres actes immoraux de manière à les rendre acceptable. Ce concept trouve ses origines dans les travaux de Bandura et al. (1996) portant sur les comportements agressifs chez des enfants. Il se compose de huit mécanismes (p.ex. le déplacement de responsabilité). Notre recherche dépasse le cadre théorique développé par Bandura et al. pour inscrire le désengagement moral dans le champ de la discrimination intergroupe. De plus, en conceptualisant le désengagement moral comme une différence individuelle, nous proposons également de présenter les premières étapes du développement d'une échelle permettant de mesurer le DMD. L'échelle de DMD a été développée en trois étapes en suivant la procédure proposée par Hinkin (1998). Tout d'abord, une liste de 72 items a été générée suivant une méthode déductive. Puis, suite à une étude (n = 13) portant sur la cohérence des items vis-à-vis du concept et de ses mécanismes, cette liste a été réduite à 40 items (5 par mécanisme). Enfin, 118 étudiants universitaires ont participé à une étude dans le but de mener des analyses factorielles (exploratoire et confirmatoire), ainsi que de tester les validités convergente, divergente et prédictive de l'échelle. La première partie de cette étude se composait de différentes échelles (p.ex. mesure de personnalité, préjugés anti-immigrés, etc.). La seconde partie de l'étude était une expérience portant sur l'évaluation d'idées de méthodes de sélection (discriminatoire versus méritocratique) des étudiants suisses et étrangers à l'université, ayant pour but de réduire la surpopulation dans les salles de cours. Les résultats obtenus sont prometteurs pour le développement de l'échelle, autant du point de vue de sa structure (p.ex. α = .82) que de sa validité. Par exemple, plus le niveau de DMD des participants était élevé, plus ils étaient favorables à une méthode de sélection discriminatoire des étudiants à l'université. L'ensemble des résultats sera présenté durant la conférence. Nous discuterons également des potentielles contributions de cette échelle pour de futurs projets de recherche. Référence : Bandura, A., Barbaranelli, C., Caprara, G. V., & Pastorelli, C. (1996). Mechanisms of moral disengagement of the exercise of moral agency. Journal of Personality and Social Psychology, 71 (2), 364-374. Crandall, C. S., & Eshleman, A. (2003). The Justification-suppression model of the expression and experience of prejudice. Psychological Bulletin, 129 (3), 414-446. Hinkin, T. R. (1998). A brief tutorial on the development of measures for use un survey questionnaires. Organizational Research Methods, 1 (1), 104.121.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Office fédéral de la santé publique (OFSP) a mandaté la Fédération romande des consommateurs (FRC) et l'Institut universitaire de médecine sociale et préventive (IUMSP) pour réaliser une cartographie du marché des préservatifs et analyser les données disponibles pour estimer le nombre de préservatifs écoulés sur le marché suisse en une année. Les données disponibles identifiées sont les suivantes : 1. Données Verein : l'Association pour le label de qualité des préservatifs possède des données sur le nombre de préservatifs testés chaque année pour l'obtention du label OK. Ces données constituent une estimation du nombre de préservatifs ayant suivi la procédure de certification du label OK. Ces dernières années, des entreprises auraient renoncé à leur collaboration avec l'association pour le label de qualité, ce qui réduit la fiabilité de cette méthode pour suivre l'évolution du marché des préservatifs en Suisse. 2. Données douanes : l'Administration fédérale des douanes établit une statistique du commerce extérieur et met à disposition une base de données qui donne accès aux données statistiques d'importation et d'exportation de préservatifs. Etant donné que cette statistique se base sur les données indiquées par les importateurs et les exportateurs, des erreurs de déclaration peuvent être commises. 3. Données IUMSP : entre 1986 et 2011, l'IUMSP a reçu des producteurs/importateurs des données de mises sur le marché de préservatifs. Ces données, fiables car provenant directement des producteurs/importateurs, ne sont malheureusement plus complètes depuis 2012, en raison d'une difficulté croissante à obtenir de telles informations. 4. Données Nielsen et IMS Health : Nielsen et IMS HEalth sont des entreprises privées qui recensent les données de vente des préservatifs en Suisse réalisées dans les commerces de détail, ainsi que dans les drogueries et pharmacies. Ces données constituent des données de vente réelles obtenues grâce à l'enregistrement des mouvements de la marchandise lors du passage en caisse dans les magasins. La couverture des points de vente est élevée (près de 80% pour les données Nielsen) et stable dans le temps.