187 resultados para osteotomia le fort I


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction :¦Les fistules artério-veineuses distales, principalement adjointes à des pontages fémoro-distaux prothétiques, sont décrites dans la littérature depuis le début des années 80. Cette méthode adjonctive a été développée dans le but d'améliorer la perméabilité des pontages prothétiques et d'augmenter le taux de sauvetage de membre, mais son utilité reste controversée dans la littérature.¦Présentation de cas :¦Un homme de 68 ans, connu pour une maladie artérielle périphérique occlusive, ancien tabagique et traité pour une hyperlipidémie, comptabilise depuis 1992 de nombreuses interventions de revascularisation. En¦raison de l'occlusion à répétition d'un pontage aorto-fémoral profond, une 3ème thrombectomie est réalisée avec l'adjonction d'une FAV distale. Cela permettra de préserver le membre pendant plus de trois ans et une amputation finira par être pratiquée à mi-cuisse.¦Revue de la littérature :¦La littérature se rapportant à l'adjonction d'une fistule artério-veineuse à l'anastomose distale d'un pontage a été recherchée dans Pubmed. Les 12 articles parus depuis 1995 et qui concernent notre propos ont été consultés.¦Résultats :¦Le nombre de patients inclus dans les études comparatives est limité car la majorité des patients qui se présentent avec une ischémie critique de membre bénéficient d'une opération de revascularisation par pontage veineux ou de manière endovasculaire. C'est souvent dans le cas de patients ayant déjà subi de¦nombreuses interventions vasculaires et qui ne disposent plus de veines autologues adéquates pour un pontage que l'on utilise l'adjonction d'une fistule artério-veineuse. Selon notre revue de la littérature et les recommandations TASC I et II, l'addition d'une fistule artério-veineuse à l'anastomose distale d'un pontage n'offre pas d'avantage significatif en termes de perméabilité et de sauvetage de membre sur le¦long terme.¦Discussion :¦Néanmoins c'est une technique à retenir dans certaines situations¦d'ischémie critique, lorsque la perfusion distale (run-off) est mauvaise. Elle permet de reculer l'échéance de l'amputation majeure mais, elle ne prévient pas la répétition d'interventions vasculaires nécessaires pour sauver le membre sur le long terme, comme l'illustre notre cas.¦Conclusions :¦On peut dire que l'addition d'une fistule artério-veineuse à l'anastomose distale d'un pontage n'offre pas d'avantage significatif en termes de perméabilité et de sauvetage de membre sur le long terme. Néanmoins, c'est une bonne alternative à l'amputation primaire à considérer au cas par cas. Mais elle ne prévient pas la répétition d'interventions vasculaires nécessaires pour sauver le membre sur le long terme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Age related macular degeneration (AMD) is an ocular disease with high prevalence among elderly persons. Two different forms exist: dry AMD, usually slowly progressive, and neovascular AMD (wet form) more aggressive. Photodynamic therapy is used to treat the wet form and anti VEGF treatments recently became available and offer a real change in the prognostic of wet AMD. Two products are registered and used in Switzerland (Macugen and Lucentis), a third "off labels product", Avastin is also currently used in clinical practice. Nevertheless, both the duration of treatment and the number of injection requested to stabilise the disease were not defined in the studies. Ongoing studies are mainly evaluating combined treatments and long acting form of the drug.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

« Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Au travers de différents exemples américains et européens, ce premier article met en évidence le manque de consensus actuel dans les réponses données à cette question par les experts du domaine. Cette disparité dans le traitement des cas de datation de traces digitales est sans doute due au fait qu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. En effet, cet article recense les études menées sur la datation des traces digitales sous forme d'une revue critique et met ainsi en évidence le fait que la plupart de ces méthodes souffrent de problèmes limitant leur application pratique. Toutefois, cette revue permet également d'identifier une approche ayant le potentiel d'apporter des réponses pratiques aux questions de datation, à savoir l'approche se basant sur l'étude du vieillissement de composés cibles intrinsèques aux traces digitales. Cette approche prometteuse ouvre des pistes afin de proposer une méthodologique formelle de datation des traces digitales. Une telle proposition permettrait d'apporter une information pertinente à la justice et fera l'objet de la seconde partie de cet article.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alors que dans notre culture francophone et occidentale les relations avec les "esprits" sont presque invariablement qualifiées dans les termes de la croyance, à Zanzibar elles sont déclinées selon des modalités fort différentes. "Croire aux esprits" se révèle donc inadéquat, voire même insensé, dans la pratique de l'uganga, les rituels d'incorporation des "esprits". C'est pourquoi je propose dans cet article un déplacement : remplacer "croire" par "percevoir". Cela ouvre un vaste champ d'investigation quant à la part expérientielle de notre rapport aux esprits et aux manières dont nous percevons le monde que nous habitons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.