61 resultados para 2-D image inputs

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I. Facteurs associés avec l'infection tuberculose latent chez les requérants d'asile entrant dans le canton de Vaud : Une étude transversale dans le canton de Vaud. Objectifs : Les objectifs de cette étude étaient l'identification des facteurs associés à l'infection tuberculeuse latente (ITBL) chez les requérants d'asile récemment arrivés au Canton de Vaud et leur utilisation pondérée pour l'élaboration d'un score prédictif qui pourrait permettre la meilleure sélection des individus à dépister avec les Interferon Gamma Release Assays (IGRA). Méthode : Le protocole de l'étude prévoyait l'inclusion des requérants d'asile de plus de 16 ans, récemment arrivés dans deux centre de requérant du canton de Vaud ceux de Sainte-Croix et de Crissier. De septembre 2009 à juillet 2010 les requérants d'asile ont bénéficié lors des visites au centre de soins infirmier (CSI) d'informations sur l'ITBL et le protocole et les enjeux de l'étude. Les requérants d'asile ont d'emblée été informées que leur participation à l'étude n'aurait pas d'impact sur le débouché de leur dossier d'asile et qu'il n'y aurait pas de compensation financière à leur participation. Après avoir signé le consentement éclairé les requérants d'asile bénéficiaient d'une entrevue avec l'infirmière du centre où un questionnaire démographique et médical était remplit. 10cc de sang étaient prélevés à la fin de l'entrevue pour l'examen IGRA. Les patients présentant des symptômes évocateurs de tuberculose active ou un anamnèse de traitement pour une tuberculose active étaient exclus de l'étude et adressés au médecin référant du centre pour une visite médicale. Selon les résultats du test T-SPOT.TB (IGRA), les requérants étaient classés en deux groupes : positifs et négatifs. Le groupe IGRA positif était adressé au médecin référant. L'analyse statistique des données de l'étude a été réalisée par le logiciel STATA 11.2. Les coefficients de l'analyse multivariée ont été combinées pour la création d'un score pronostic dont la puissance de discrimination a été évaluée par une courbe ROC. Le protocole de l'étude avait reçu l'aval de la commission d'éthique de l'Université de Lausanne. Résultats : Durant la période de l'étude, 788 requérants d'asile ont été hébergés dans les deux centres de l'étude. 639 avaient plus de 16 ans et 393 d'entre eux ont participé à l'étude (61.50%). 295 (75.06%) avaient un IGRA négatif et 98 (24.93%) étaient positifs. A noter que parmi les 98 positifs, 5 avaient une tuberculose active non détecté précédemment. Les analyses univarié et multivarié ont permis d'identifier 6 facteurs associées à l'ITBL : Région d'origine, moyen de transport, état civil, âge, toux et antécédent d'exposition à la tuberculose. Le score élaboré en combinant ces 6 facteurs présente un AUC de 81% avec une sensibilité de 80%, une spécificité de 70% et des valeurs prédictive positive et négative respectivement de 45% et 92% quant un seuil de 13 est utilisé. Conclusion : Les requérants d'asile qui immigrent en Suisse proviennent de pays où l'incidence de la tuberculose est supérieure à celle des pays de l'Europe occidentale et présentent un risque élevé pour l'infection tuberculose latente (ITBL). L'origine comme seul facteur n'est pas suffisant pour stratifier le risque d'ITBL et ne peut pas justifier la prescription d'un traitement préventif d'ITBL. L'introduction des tests de détection, hautement spécifiques de l'infection au M. tuberculosis tel que les IGRA ainsi que le taux élevé de réussite des traitements préventifs de l'infection latente ont ouvert la voie à un dépistage précoce de l'ITBL qui compléterait le dépistage de la tuberculose active actuellement effectué à la frontière. Afin de mieux cibler le dépistage par ces tests une meilleure sélection des individus à dépister est impérative. Elle pourrait se faire en évaluant le score individuel de risque ITBL par requérant. -- II. Taux élevé d'adhérence au traitement préventif de l'infection tuberculeuse latente prescrit à un collectif de requérants d'asile dans un canton suisse. Objectifs: L'efficacité du traitement préventif de l'infection tuberculeuse latente dépend de l'adherence du sujet au traitement. Un traitement bien conduit pour une duré prévue est en mesure de prévenir l'activation des cas d'infection tuberculeuse latente (ITBL). Le plus grand enjeu dans un programme préventif pour la tuberculose est, outre de cibler la détection des individus les plus à risque pour l'ITBL, de pouvoir traiter efficacement le collectif dépisté positif. Cette étude évaluait la faisabilité d'un traitement préventif court parmi un collectif de requérants d'asile porteurs d'une ITBL dans le canton de Vaud. Méthode: Nous avons effectué une étude prospective de cohorte parmi des requérants d'asile récemment attribués dans le canton de Vaud, âgés de plus de 16 ans et qui avaient été dépistés positifs par IGRA. L'ensemble du collectif selon le protocole de l'étude était adressé au médecin référant afin d'exclure une tuberculose active et pour discuter du traitement préventif si le diagnostic d'ITBL était confirmé. Lors de la première visite médicale, outre l'examen clinique, un bilan radiologique avec une radiographie du thorax et un bilan de la biologie hépatique ainsi qu'un test de dépistage HIV était proposé à l'ensemble du collectif. En cas de suspicion clinique ou d'image radiologique suspecte de tuberculose active le sujet était adressé pour des examens complémentaires. Les sujets porteurs d'ITBL se voyaient proposés, en l'absence de contre indications, un traitement de rifampicine de quatre mois. En acceptant de participer à l'étude ils s'engageaient de se présenter à leur contrôle médical mensuel où était évaluée l'adhérence au traitement et l'apparition d'effets indésirable ou de complications. Si l'adhérence était jugée correcte l'ordonnance du traitement était renouvelée d'un mois et le requérant recevait son prochain rendez-vous de contrôle. L'adhérence était considéré satisfaisante si le patient était adhérent à son schéma de visites médicales et demandait le renouvellement de son ordonnance. Si le requérant d'asile ne se présentait pas à deux contrôles il était considéré comme non adhérent et son traitement est suspendu. Résultats : Notre collectif comptait 98 sujet présument atteint de ITBL sur la base du test T-SPOT.TB ce qui représentait 24.9% du collectif initial. L'âge moyen était de 26.7 ans, 74% était des hommes. La majorité étaient des africains: 66 %, 17% étaient asiatiques et les populations balkaniques et de l'exunion soviétique étaient représentés à part égale d'huit pourcent. Parmi notre collectif nous n'avions pas de sujet immunodéficient notamment HIV positif. Des 98 sujets, 11 ne se sont pas présenté à leur visite médicale initiale. La visite médicale initiale a permis la détection de 8 patients porteurs d'une tuberculose active, dont cinq ont reçu un traitement antituberculeux, ou d'une autre affection pulmonaire non tuberculeuse. Chez deux patients il y avait une contre-indication au traitement préventif et deux avaient un anamnèse positif de traitement antituberculeux non précédemment déclaré. Le traitement préventif a été prescrit à 74 requérants d'asile. Durant le suivi mensuel trois requérants ne se sont pas présentés lors de la première visite de suivi, trois lors de la seconde et sept lors de la troisième pour un total de 13 sujets. Chez deux sujets le traitement préventif a du être suspendu à cause d'une adhérence problématique secondaire à des abus de substances illégales. Durant le suivi, nous n'avons pas eu de sérieuses complications ni d'effets indésirables au traitement qui auraient nécessité son arrêt. En final 60/75 des sujets ont achevé leur traitement soit 80% du collectif. Conclusion: Malgré la vulnérabilité et la volatilité inhérente à cette population qui est d'ailleurs la plus à risqué de réactivation d'une ITBL, cette étude montre que il est possible d'obtenir de taux d'adhérence très élevés au traitement préventif. Nous considérons que les conditions qui ont permis ces résultats sont la prescription d'un schéma de traitement préventif court, un suivi médico-soignant régulier et l'hébergement contrôlée et stable où résidait notre collectif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Little is known on a putative effect of vitamin D on CD8+ T cells. Yet, these cells are involved in the immmunopathogenesis of MS. We assessed the cytokine profile of EBV-specific CD8+ T cells of 10 early MS patients and 10 healthy control subjects with or without 1,25(OH)(2)D(3) and found that, with 1,25(OH)(2)D(3), these cells secreted less IFN-γ and TNF-α and more IL-5 and TGF-β. CD4+ T cell depletion or even culture with CD8+ T cells only did not abolish the immunomodulatory effect of 1,25(OH)(2)D(3) on CD8+ T cells, suggesting that 1,25(OH)(2)D(3) can act directly on CD8+ T cells.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Over the past decade, significant interest has been expressed in relating the spatial statistics of surface-based reflection ground-penetrating radar (GPR) data to those of the imaged subsurface volume. A primary motivation for this work is that changes in the radar wave velocity, which largely control the character of the observed data, are expected to be related to corresponding changes in subsurface water content. Although previous work has indeed indicated that the spatial statistics of GPR images are linked to those of the water content distribution of the probed region, a viable method for quantitatively analyzing the GPR data and solving the corresponding inverse problem has not yet been presented. Here we address this issue by first deriving a relationship between the 2-D autocorrelation of a water content distribution and that of the corresponding GPR reflection image. We then show how a Bayesian inversion strategy based on Markov chain Monte Carlo sampling can be used to estimate the posterior distribution of subsurface correlation model parameters that are consistent with the GPR data. Our results indicate that if the underlying assumptions are valid and we possess adequate prior knowledge regarding the water content distribution, in particular its vertical variability, this methodology allows not only for the reliable recovery of lateral correlation model parameters but also for estimates of parameter uncertainties. In the case where prior knowledge regarding the vertical variability of water content is not available, the results show that the methodology still reliably recovers the aspect ratio of the heterogeneity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We propose a segmentation method based on the geometric representation of images as 2-D manifolds embedded in a higher dimensional space. The segmentation is formulated as a minimization problem, where the contours are described by a level set function and the objective functional corresponds to the surface of the image manifold. In this geometric framework, both data-fidelity and regularity terms of the segmentation are represented by a single functional that intrinsically aligns the gradients of the level set function with the gradients of the image and results in a segmentation criterion that exploits the directional information of image gradients to overcome image inhomogeneities and fragmented contours. The proposed formulation combines this robust alignment of gradients with attractive properties of previous methods developed in the same geometric framework: 1) the natural coupling of image channels proposed for anisotropic diffusion and 2) the ability of subjective surfaces to detect weak edges and close fragmented boundaries. The potential of such a geometric approach lies in the general definition of Riemannian manifolds, which naturally generalizes existing segmentation methods (the geodesic active contours, the active contours without edges, and the robust edge integrator) to higher dimensional spaces, non-flat images, and feature spaces. Our experiments show that the proposed technique improves the segmentation of multi-channel images, images subject to inhomogeneities, and images characterized by geometric structures like ridges or valleys.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Initial topography and inherited structural discontinuities are known to play a dominant role in rock slope stability. Previous 2-D physical modeling results demonstrated that even if few preexisting fractures are activated/propagated during gravitational failure all of those heterogeneities had a great influence on mobilized volume and its kinematics. The question we address in the present study is to determine if such a result is also observed in 3-D. As in 2-D previous models we examine geologically stable model configuration, based upon the well documented landslide at Randa, Switzerland. The 3-D models consisted of a homogeneous material in which several fracture zones were introduced in order to study simplified but realistic configurations of discontinuities (e.g. based on natural example rather than a parametric study). Results showed that the type of gravitational failure (deep-seated landslide or sequential failure) and resulting slope morphology evolution are the result of the interplay of initial topography and inherited preexisting fractures (orientation and density). The three main results are i) the initial topography exerts a strong control on gravitational slope failure. Indeed in each tested configuration (even in the isotropic one without fractures) the model is affected by a rock slide, ii) the number of simulated fracture sets greatly influences the volume mobilized and its kinematics, and iii) the failure zone involved in the 1991 event is smaller than the results produced by the analog modeling. This failure may indicate that the zone mobilized in 1991 is potentially only a part of a larger deep-seated landslide and/or wider deep seated gravitational slope deformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs: Comparer la qualité d'image entre des protocoles dose-standard avec rétroprojection filtrée et basse-dose avec reconstruction itérative en scanner du rachis cervical. Matériels et méthodes: 40 patients ont été investigués par scanner du rachis cervical et prospectivement randomisés en 2 groupes: dose-standard (120kV, 275mAs) avec rétroprojection filtrée, basse-dose (120kV, 150mAs) avec reconstruction itérative. Mesure du bruit, signal-sur-bruit et contraste-sur-bruit. Analyse semi-quantitative (4 points) par 2 observateurs indépendants des disques, foramens, cordon médullaire, ligaments, parties molles et vertèbres, en C3-C4 et C6-C7. Evaluation semi-quantitative (10 points) de la qualité d'image globale. Les paramètres de dose ont été mesurés. Résultats: Il n'y avait aucune différence significative de bruit, signal-sur-bruit ou contraste-sur-bruit entre les 2 protocoles (p≥0.39). En basse-dose avec reconstruction itérative, la visibilité était significativement meilleure pour les disques, foramens et ligaments (p≤0.05), égale pour le cordon médullaire et moins bonne pour les parties molles et vertèbres (p≤0.02). La qualité d'image globale était meilleure, avec une réduction de dose de 41%. Conclusion: Le scanner du rachis cervical basse-dose avec reconstruction itérative fournit des images égales ou meilleures pour les disques, foramens et ligaments, tout en réduisant la dose d'environ 40%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: To perform a comprehensive study on the relationship between vitamin D metabolism and the response to interferon-α-based therapy of chronic hepatitis C. METHODOLOGY/PRINCIPAL FINDINGS: Associations between a functionally relevant polymorphism in the gene encoding the vitamin D 1α-hydroxylase (CYP27B1-1260 rs10877012) and the response to treatment with pegylated interferon-α (PEG-IFN-α) and ribavirin were determined in 701 patients with chronic hepatitis C. In addition, associations between serum concentrations of 25-hydroxyvitamin D(3) (25[OH]D(3)) and treatment outcome were analysed. CYP27B1-1260 rs10877012 was found to be an independent predictor of sustained virologic response (SVR) in patients with poor-response IL28B genotypes (15% difference in SVR for rs10877012 genotype AA vs. CC, p = 0.02, OR = 1.52, 95% CI = 1.061-2.188), but not in patients with favourable IL28B genotype. Patients with chronic hepatitis C showed a high prevalence of vitamin D insufficiency (25[OH]D(3)<20 ng/mL) during all seasons, but 25(OH)D(3) serum levels were not associated with treatment outcome. CONCLUSIONS/SIGNIFICANCE: Our study suggests a role of bioactive vitamin D (1,25[OH](2)D(3), calcitriol) in the response to treatment of chronic hepatitis C. However, serum concentration of the calcitriol precursor 25(OH)D(3) is not a suitable predictor of treatment outcome.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerous sources of evidence point to the fact that heterogeneity within the Earth's deep crystalline crust is complex and hence may be best described through stochastic rather than deterministic approaches. As seismic reflection imaging arguably offers the best means of sampling deep crustal rocks in situ, much interest has been expressed in using such data to characterize the stochastic nature of crustal heterogeneity. Previous work on this problem has shown that the spatial statistics of seismic reflection data are indeed related to those of the underlying heterogeneous seismic velocity distribution. As of yet, however, the nature of this relationship has remained elusive due to the fact that most of the work was either strictly empirical or based on incorrect methodological approaches. Here, we introduce a conceptual model, based on the assumption of weak scattering, that allows us to quantitatively link the second-order statistics of a 2-D seismic velocity distribution with those of the corresponding processed and depth-migrated seismic reflection image. We then perform a sensitivity study in order to investigate what information regarding the stochastic model parameters describing crustal velocity heterogeneity might potentially be recovered from the statistics of a seismic reflection image using this model. Finally, we present a Monte Carlo inversion strategy to estimate these parameters and we show examples of its application at two different source frequencies and using two different sets of prior information. Our results indicate that the inverse problem is inherently non-unique and that many different combinations of the vertical and lateral correlation lengths describing the velocity heterogeneity can yield seismic images with the same 2-D autocorrelation structure. The ratio of all of these possible combinations of vertical and lateral correlation lengths, however, remains roughly constant which indicates that, without additional prior information, the aspect ratio is the only parameter describing the stochastic seismic velocity structure that can be reliably recovered.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente recherche analyse le concept mental d'identité personnelle et en propose une interprétation critique, qui se développe à partir des cas de troubles psychologiques se manifestant chez certains patients transplantés. Nous pensons que l'étude de ces cas offre la possibilité de repenser, et par là critiquer, certains présupposés qui conditionnent le débat philosophique contemporain sur l'identité personnelle de matrice essentiellement analytique. Nous proposons de ce concept mental une interprétation inusuelle, reposant sur une certaine compréhension de l'être (humain), que nous caractérisons par la formule «identité personnelle transductive ». Cette expression véhicule l'idée d'une «ontologie autre » ; autre que l'ontologie classique qui pense l'être comme déterminité, à l'instar d'un individu substantiel, stable et persistant. Nous nous éloignons ainsi de la conception de la déterminité telle qu'elle se développe depuis l'Antiquité grecque, parce que nous croyons que le changement ou le devenir réside dans la nature des choses. Nous avons ainsi essayé de présenter une interprétation de l'être différente, en empruntant à Gilbert Simondon la notion de « transductivité » -dans le sens d'« individuation en progrès »que cet auteur lui attribue. En comparant les témoignages des patients transplantés avec les cas imaginaires de transplantation de cerveau qui dominent les discussions philosophiques, nous avons montré la nécessité de refonder l'ontologie sur laquelle reposent les théories contemporaines de l'identité personnelle. Cette tentative répond à l'exigence de résoudre et tempérer les apories qui se font jour au sein des conceptions déterministes de la personne -soient-elles réductionnistes (à l'instar des partisans du critère de continuité psychologique et physique) ou non réductionnistes (à l'instar des conceptions simples ou Théories de l'ego basées sur une approche à la première personne, où la personne, comprise comme persistance substantielle d'un sujet, se fonde d'elle-même). Au coeur de notre démarche se trouve la notion d'« image du corps », véritable outil d'unification épistémologique et de renouvellement ontologique. Cette notion s'est révélée extrêmement utile non seulement pour comprendre et démêler les composantes qui interviennent dans le surgissement des troubles psychologiques lors des transplantations d'organes, ainsi que la variabilité des réactions individuelles, mais aussi, plus fondamentalement, pour rendre manifeste l'opération de «transduction perpétuée »qui est à la base de l'ontogenèse de l'être humain en tant que personne, donc du moi. La notion d'image du corps nous a donc permis de mettre en évidence ce que l'expérience de la transplantation d'organes bien comprise pourrait ou devrait apporter à la théorie de l'identité personnelle. C'est ainsi que, par approximation, s'est précisée l'idée d'une identité personnelle transductive, où le moi (la personne), étant interprété comme l'aspect subjectif d'une opération d'«individuation perpétuée », se donne sous le signe de la discordance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En observant les dynamiques scientifiques et institutionnelles à l'oeuvre autour du développement des nanosciences et des nanotechnologies, on observe des rapprochements entre certaines disciplines, dont la chimie, et la transformation de leur identité et de leurs frontières. Ce chapitre rend compte de la manière dont la communauté des chimistes réagit à ces transformations mais aussi comment elle perçoit les alertes sur l'environnement et sur les risques toxicologiques et éco-toxicologiques potentiels et ce qu'elle en fait. On constate alors que les nanoparticules impactent la communauté chimique et contribuent à la verdir (en termes d'image dans la société comme en termes de réduction effectives des nuisances) encore un peu plus. Le texte tente de qualifier le phénomène et de répondre finalement à la question : « comment les nanoparticules poussent la chimie vers le développement durable ? »

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.