999 resultados para Osteotomia Le Fort I
Resumo:
Introduction: Le glucose est le principal substrat énergétique cérébral. Sa concentration dans le cerveau est étroitement liée à la glycémie. Chez le patient neurolésé, du fait de l'augmentation des besoins énergétiques, les réserves cérébrales de glucose sont limitées. Une glycémie suffisamment élevée paraît nécessaire pour assurer un apport adéquat de glucose au cerveau. Objectifs : Le but de cette étude est de mieux comprendre la relation entre glucose cérébral et glycémie lors de lésion cérébrale en analysant la physiologie cérébrale chez des patients neurolésés. Plus précisément nous investiguerons: La relation entre le glucose cérébral et le glucose systémique et son association avec le pronostic vital, l'association entre la neuroglucopénie et différents paramètres cérébraux tel que l'hypertension intracrânienne (HTIC) ou la dysfonction énergétique et finalement l'effet d'une perfusion de glucose 10% sur le glucose cérébral lors d'état de neuroglucopénie. Méthodologie : Analyse d'une base de données prospective comportant des patients souffrant d'un traumatisme crânio-cérébral (TCC) ou une hémorragie sous- arachnoïdienne (HSA) sévères. Les patients comateux sont monitorés par un dispositif intra-parenchymateux avancé, comprenant un cathéter de microdialyse cérébrale et un capteur de PbO2. Résultats : 34 patients consécutifs (moyenne d'âge 42 ans, moyenne de temps jusqu'au début du monitoring : 1.5 jours ± 1 ; moyenne de la durée maximale du monitoring : 6 jours ± 3) ont été étudiés, 25 patients souffrant d'un TCC et 9 patients avec une HSA. Nous avons obtenu une corrélation individuelle entre le glucose cérébral et la glycémie chez 52.9 % des patients. Lorsque la glycémie est inférieure à 5 mmol/l, on observe plus fréquemment des épisodes de neuroglucopénie en comparaison aux valeurs intermédiaires de glycémie (5 - 9.9 mmol/l). Les épisodes d'HTIC (pression intracrânienne (PIC) > 20 mmHg) sont plus fréquemment associés à des épisodes de neuroglucopénie que lorsque la pression intracrânienne est normale 75 % vs. 35%. La dysfonction énergétique est plus souvent associés à des épisodes de neuroglucopénie que lorsque le LPR est normal: 55% contre 36%. Un coefficient de corrélation entre glucose cérébral et glycémie significativement plus élevé a été obtenu chez les survivants que chez les non-survivants (0.1 [interquartile range 0.02- 0.3] contre 0.32 [0.17-0.61]). Chez les patients neuroglucopéniques ayant une corrélation entre glucose cérébral et glycémie, la perfusion de glucose i.v. fait monter le glucose cérébral jusqu'à l'arrêt de la perfusion. Conclusion : Malgré une étroite relation entre glycémie et glucose cérébral en conditions stables, cette relation peut être altérée par des causes cérébrales chez les patients neurolésés montrant que la diminution de la disponibilité du glucose extracellulaire ne résulte pas uniquement d'une hypoglycémie relative mais également de causes cérébrales tel que l'hypoperfusion, l'HTIC ou la dysfonction énergétique.
Resumo:
L'indice d'aptitude général (IAG) a été développé dans le WISC-III pour estimer le niveau cognitif général. Il s'agissait de proposer une alternative au QI Total. Plus récemment, l'indice de compétence cognitive (ICC) a été proposé. Jusqu'à il y a peu, seules les normes américaines de ces indices étaient disponibles ; les normes franc ̧ aises IAG et ICC pour le WISC-IV ont été récemment développées à partir d'une procédure d'approximation statistique. Toutefois, les normes développées de cette manière seraient moins appro- priées que les normes construites sur la base d'un échantillon. Cette étude vise à comparer les normes IAG et ICC développées à partir d'une procédure d'approximation statistique à celles créées à partir d'un échantillon de 182 enfants âgés de huit à 12 ans. Les corrélations entre les deux types de normes sont de 0,997 pour IAG et de 0,999 pour ICC ; les différences absolues moyennes sont respectivement de 5,38 et de 2,24 points pour IAG et ICC. Enfin, pour les enfants présentant un score IAGS inférieur à 89, les normes IAGE semblent indiquer que leurs compétences seraient inférieures d'environ 8-10 points à celui indiqué par le score IAGS. Les résultats de cette étude indiquent que les scores IAG et ICC peuvent constituer des informations utiles sur les capacités cognitives de l'enfant.
Resumo:
Introduction :¦Les fistules artério-veineuses distales, principalement adjointes à des pontages fémoro-distaux prothétiques, sont décrites dans la littérature depuis le début des années 80. Cette méthode adjonctive a été développée dans le but d'améliorer la perméabilité des pontages prothétiques et d'augmenter le taux de sauvetage de membre, mais son utilité reste controversée dans la littérature.¦Présentation de cas :¦Un homme de 68 ans, connu pour une maladie artérielle périphérique occlusive, ancien tabagique et traité pour une hyperlipidémie, comptabilise depuis 1992 de nombreuses interventions de revascularisation. En¦raison de l'occlusion à répétition d'un pontage aorto-fémoral profond, une 3ème thrombectomie est réalisée avec l'adjonction d'une FAV distale. Cela permettra de préserver le membre pendant plus de trois ans et une amputation finira par être pratiquée à mi-cuisse.¦Revue de la littérature :¦La littérature se rapportant à l'adjonction d'une fistule artério-veineuse à l'anastomose distale d'un pontage a été recherchée dans Pubmed. Les 12 articles parus depuis 1995 et qui concernent notre propos ont été consultés.¦Résultats :¦Le nombre de patients inclus dans les études comparatives est limité car la majorité des patients qui se présentent avec une ischémie critique de membre bénéficient d'une opération de revascularisation par pontage veineux ou de manière endovasculaire. C'est souvent dans le cas de patients ayant déjà subi de¦nombreuses interventions vasculaires et qui ne disposent plus de veines autologues adéquates pour un pontage que l'on utilise l'adjonction d'une fistule artério-veineuse. Selon notre revue de la littérature et les recommandations TASC I et II, l'addition d'une fistule artério-veineuse à l'anastomose distale d'un pontage n'offre pas d'avantage significatif en termes de perméabilité et de sauvetage de membre sur le¦long terme.¦Discussion :¦Néanmoins c'est une technique à retenir dans certaines situations¦d'ischémie critique, lorsque la perfusion distale (run-off) est mauvaise. Elle permet de reculer l'échéance de l'amputation majeure mais, elle ne prévient pas la répétition d'interventions vasculaires nécessaires pour sauver le membre sur le long terme, comme l'illustre notre cas.¦Conclusions :¦On peut dire que l'addition d'une fistule artério-veineuse à l'anastomose distale d'un pontage n'offre pas d'avantage significatif en termes de perméabilité et de sauvetage de membre sur le long terme. Néanmoins, c'est une bonne alternative à l'amputation primaire à considérer au cas par cas. Mais elle ne prévient pas la répétition d'interventions vasculaires nécessaires pour sauver le membre sur le long terme.
Resumo:
Age related macular degeneration (AMD) is an ocular disease with high prevalence among elderly persons. Two different forms exist: dry AMD, usually slowly progressive, and neovascular AMD (wet form) more aggressive. Photodynamic therapy is used to treat the wet form and anti VEGF treatments recently became available and offer a real change in the prognostic of wet AMD. Two products are registered and used in Switzerland (Macugen and Lucentis), a third "off labels product", Avastin is also currently used in clinical practice. Nevertheless, both the duration of treatment and the number of injection requested to stabilise the disease were not defined in the studies. Ongoing studies are mainly evaluating combined treatments and long acting form of the drug.
Resumo:
« Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Au travers de différents exemples américains et européens, ce premier article met en évidence le manque de consensus actuel dans les réponses données à cette question par les experts du domaine. Cette disparité dans le traitement des cas de datation de traces digitales est sans doute due au fait qu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. En effet, cet article recense les études menées sur la datation des traces digitales sous forme d'une revue critique et met ainsi en évidence le fait que la plupart de ces méthodes souffrent de problèmes limitant leur application pratique. Toutefois, cette revue permet également d'identifier une approche ayant le potentiel d'apporter des réponses pratiques aux questions de datation, à savoir l'approche se basant sur l'étude du vieillissement de composés cibles intrinsèques aux traces digitales. Cette approche prometteuse ouvre des pistes afin de proposer une méthodologique formelle de datation des traces digitales. Une telle proposition permettrait d'apporter une information pertinente à la justice et fera l'objet de la seconde partie de cet article.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Alors que dans notre culture francophone et occidentale les relations avec les "esprits" sont presque invariablement qualifiées dans les termes de la croyance, à Zanzibar elles sont déclinées selon des modalités fort différentes. "Croire aux esprits" se révèle donc inadéquat, voire même insensé, dans la pratique de l'uganga, les rituels d'incorporation des "esprits". C'est pourquoi je propose dans cet article un déplacement : remplacer "croire" par "percevoir". Cela ouvre un vaste champ d'investigation quant à la part expérientielle de notre rapport aux esprits et aux manières dont nous percevons le monde que nous habitons.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.