999 resultados para Méthodes mixtes
Resumo:
Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.
Resumo:
Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.
Resumo:
In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.
Resumo:
Introduction : La sécrétion d'insuline est régulée par le glucose et également pardes hormones peptidiques libérées par le tractus digestif, comme la neurotensine(NT). La NT est un neuropeptide, sécrété notamment par les cellules N dela paroi de l'estomac, qui exerce des fonctions régulatrices complexes dans lesystème digestif. Notre laboratoire a récemment démontré que les cellulesendocrines du pancréas (les îlots de Langherans) expriment les trois récepteursconnus de la NT. Nous avons montré que la NT module la survie de la cellulebêta pancréatique (Coppola et al. 2008). Cette fonction met en jeu deux desrécepteurs de la NT, le NTSR2 et le NTSR3 qui forment, après stimulation parla NT, un complexe protéique régulateur de la survie des cellules (Béraud-Dufour et al. 2009) et également de la sécrétion d'insuline (Béraud-Dufour et al.2010).Matériels et méthodes : La caractérisation pharmacologique de l'effet NT sur lasécrétion d'insuline a été faite à l'aide de ligands spécifiques (agonistes ou antagonistes),dans des expériences d'imagerie calciques et d'exocytose. Nous avonsmesuré l'acivation des PKC par imagerie en temps réel. Afin de déterminer lerôle de la NT dans la physiologie générale nous avons utilisé des modèles in vitro(lignées de cellules INS-1E) et in vivo (souris invalidées NTSR1 et NTSR2).Résultats : Nous avons montré que les récepteurs NTSR2 et NTSR3 interviennentdans la modulation de la sécrétion d'insuline en fonction des conditionsphysiologiques : 1) la NT stimule la sécrétion dans des conditions basales deglucose. 2) elle inhibe la sécrétion dans des situations d'hyperglycémie. La NTmobilise plusieurs activités protéines kinases C (PKC) nécessaires à son rôlephysiologique (Béraud-Dufour et al. 2010).Par ailleurs, sur les modèles murins l'étude du métabolisme de souris transgéniquesinvalidées pour les gènes des NTSR1 et NTSR2 a permis de mettre en évidencel'implication de la NT dans la régulation de l'homéostasie du glucose. Invivo, nous avons observé que l'injection intra péritonéale de NT diminue la glycémieet que cet effet nécessite la présence du NTSR1. Nous avons observé quel'invalidation du gène du NTSR1 affecte la réponse des souris lors des tests detolérance au glucose et à l'insulineConclusion : Les résultats obtenus dans cette étude prouvent que le bon fonctionnementdu système neurotensinergique est nécessaire au maintien d'uneglycémie stable. La dérégulation de ce système pourrait être l'un des facteursimpliqué dans la survenue et/ou l'aggravation d'un diabète de type 2.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.
Resumo:
Objectifs: Exposer une nouvelle technique permettant le retrait de ciment extra-vertebral par fuite accidentelle lors du retrait du matériel. Matériels et méthodes: Nous injectons le ciment lorsque sa densité est celle d'une pâte dentifrice pour éviter les passages vasculaires. Lorsque la vertèbre est parfaitement remplie,nous patientons quelques minutes pour éviter la fuite de ciment le long du trajet (environ 4 a 6 cc en moyenne par vertèbre sont injectés). Malgré ces précautions,une fuite de ciment peut survenir lors du retrait du trocart. Cette complication est rare lorsque l'on prend les précautions nécessaires. Cependant, si la pressionintra-vertébrale est importante, le ciment peut être aspiré en dehors de la vertèbre. Résultats: L'aiguille du trocart est retirée pour être remplacée par une pince d'endoscopie 13 gauges. Sous guidage scopique, l'extraction se fait sous contrôle continu ; lapince retirant la fuite de ciment. Conclusion: La connaissance de cette intervention peut être très utile pour les équipes de radiologie interventionnelle , d'orthopédie et de neurochirurgie réalisant desvertébroplasties, pouvant être confrontées à ce type de problèmes.
Resumo:
Rapport de synthèseLes troubles de la glycosylation (Congenital Disorders of Glycosylation, CDG) regroupent une famille de maladies multi-systémiques héréditaires causées par des défauts dans la synthèse de glycoconjugés. La glycosylation est une réaction enzymatique consistant à lier de façon covalente un glucide à une chaîne peptidique ou une protéine. Il existe deux types de glycosylation. La N-gjycosylation est l'addition de glucides aux chaînes peptidiques en croissance dès leur entrée dans la lumière du réticulum endoplasmique. Elle s'effectue sur les futures glycoprotéines membranaires et conduit à des chaînes de sucres courtes et ramifiées. La O-glycosylation est l'addition de glucides au niveau des résidus hydroxylés des acides aminés sérine et thréonine des chaînes peptidiques déjà présentes dans la lumière de l'appareil de Golgi. Elle est, dans la plupart des cas, effectuée sur îes protéoglycanes et conduit à des chaînes de sucres longues et non ramifiées. La classification des CDG repose sur le niveau de l'étape limitante de la glycosylation. Les CDG de type 1, plus fréquents, regroupent les déficits enzymatiques se situant en amont du transfert de Poligosaccharide sur la chaîne peptidique. Les CDG de type 2 regroupent ceux ayant lieu en aval de ce transfert. Parmi les nombreux différents sous-types de CDG, le CDG de type ld est causé par une anomalie de la mannosyltransferase, enzyme codée par le gène ALG3 (chromosome 3q27). Jusqu'à ce jour, six patients atteints de CDG ld ont été reportés dans la littérature. Notre travail a permis de décrire un septième patient et d'affiner les caractéristiques cliniques, biologiques, neuroradiologiques et moléculaires du CDG ld. Notre patient est notamment porteur d'une nouvelle mutation de type missense sur le gène ALG3. Tous les patients atteints de CDG ld présentent une encéphalopathie progressive avec microcéphalie, retard psychomoteur sévère et épilepsie. Une ostéopénie marquée est présente chez certains patients. Elle est parfois sous diagnostiquée et révélée uniquement lors de fracture pathologique. Les patients atteints de CDG ld présentent également des traits dysmorphiques typiques, mais aucune atteinte multi-systémique ou anomalie biologique spécifique n'est retrouvée telle que dans les autres types de CDG. Le dépistage biochimique des troubles de la glycosylation se fait par une analyse simple et peu coûteuse qui est l'analyse de la transferrine sérique par isoelectrofocusing ou par électrophorèse capillaire. Un tel dépistage devrait être effectué chez tout patient présentant une encéphalopathie d'origine indéterminée, et cela même en l'absence d'atteinte multi- systémique. Notre travail a été publié sous forme d'article de type « short report », peer-reviewed, dans le Journal of Inherited Metabolic Diseases. Le Journal est une révue spécialisée du domaine des erreirs innées du métabolisme. S'agissant d'un seul patient rapporté, l'article ne montre que très synthétiquement le travail effectué, Pour cette raison un complément à l'article avec matériel, méthodes et résultats figure ci-après et concerne la partie de recherche moléculaire de notre travail. La doctorante a non seulement encadré personnellement le patient au niveau clinique et biochimique, mais a plus particulièrement mis au point l'analyse moléculaire du gène ALG3 dans le laboratoire de Pédiatrie Moléculaire pour la première fois ; cela a impliqué l'étude du gène, le choix des oligonucleotides et l'optimisation des réactions d'amplification et séquençage.
Resumo:
Contexte : La stimulation du nerf vague est une technique neurochirurgicale qui consiste en l'implantation d'une électrode envoyant des impulsions autours de celui-ci. Depuis l'approbation de la FDA en 1997 aux Etats-Unis, elle est utilisée chez certains patients épileptiques pharmaco-résistants et dont la chirurgie classique n'est pas envisageable [1], Par exemple lorsque qu'aucun foyer épileptique n'est identifiable, qu'une zone éloquente du cortex est atteinte ou encore qu'il y a de multiples points de départ. On parle généralement de patient « répondeur » lorsqu'une diminution de plus de 50% des crises est observée après l'opération. La proportion de patients répondeurs est estimée entre 20 à 50% [2], avec une action positive sur l'éveil [3]. Le mécanisme d'action de cette thérapie reste largement inconnu même si quelques ébauches d'hypothèses ont été formulées, notamment une action inhibitrice sur le noyau solitaire du nerf vague qui pourrait avoir comme effet de moduler des projections ascendantes diffuses via le locus coeruleus [3, 4]. Objectifs : Le but de ce travail est d'observer les effets de la stimulation du nerf vague sur le métabolisme cérébral et potentiellement d'élaborer des hypothèses sur le mécanisme d'action de ce traitement. Il faudra plus précisément s'intéresser au tronc cérébral, contenant le locus coeruleus (métabolisme de la noradrénaline) et aux noyaux du raphé (métabolisme de la sérotonine), deux neurotransmetteurs avec effet antiépileptique [5]. Le but sera également d'établir des facteurs prédictifs sur la façon de répondre d'un patient à partir d'une imagerie cérébrale fonctionnelle avant implantation, notamment au niveau du métabolisme cortical, particulièrement frontal (éveil) sera intéressant à étudier. Méthodes : Un formulaire d'information ainsi que de consentement éclairé sera remis à chaque patient avant inclusion dans l'étude. Les informations de chaque patient seront également inscrites dans un cahier d'observation (Case Report Form, CRF). Le travail s'organisera essentiellement sur deux populations. Premièrement, chez les patients déjà opérés avec un stimulateur en marche, nous réaliserons qu'une imagerie PET au F-18-fluorodeoxyglucose (FDG) post-opératoire qui seront comparés à une base de données de patients normaux (collaboration Dr E. Guedj, AP-HM, La Timone, Marseille). Nous confronterons également les images de ces patients entre elles, en opposant les répondeurs (diminution des crises de ≥50%) aux non-répondeurs. Deuxièmement, les patients non encore opérés auront un examen PET basal avant implantation et 3-6 mois après la mise en marche du stimulateur. Nous évaluerons alors les éventuelles modifications entre ces deux imageries PET, à la recherche de différences entre les répondeurs et non-répondeurs, ainsi que de facteurs prédictifs de bonne réponse dans l'imagerie de base. Toutes les comparaisons d'images seront effectuées grâce avec le programme d'analyse SPM08. Résultats escomptés : Nous espérons pouvoir mettre en évidence des modifications du métabolisme cérébral au FDG sur la base de ces différentes images. Ces constatations pourraient nous permettre de confirmer ou d'élargir les hypothèses physiologiques quant aux effets du traitement par stimulation vagale. Nous aimerions, de plus, amener à définir des facteurs prédictifs sur la façon de répondre d'un patient au traitement à l'aide du PET au F-18-FDG de départ avant implantation. Plus value escomptée : Ces résultats pourront donner des pistes supplémentaires quant au fonctionnement de la stimulation vagale chez les patients avec épilepsie réfractaire et servir de base à de nouvelles recherches dans ce domaine. Ils pourraient aussi donner des éléments pronostics avant l'implantation pour aider la sélection des patients pouvant bénéficier de ce type de thérapie.
Resumo:
Objectifs: Evaluer la faisabilité, les résultats préliminaires à court et long terme du vissage percutané de vissage trans -isthmique sous anesthésie locale et contrôle scannerdes lyses isthmiques de bas grades.Matériels et méthodes: Etude prospective monocentrique réalisée sur 10 patients ayant une lyse isthmique grade 1 et 2 résistant au traitement médical conventionnel. Une évaluationclinique était réalisée à un mois, 3 mois, 6 mois et un an post-opératoire par un évaluateur indépendant. L'indication est posée en concertation avec le service dechirurgie orthopédique.Résultats: Les lyses isthmiques étaient situées en L5-S1 avec 6 grades 1 et 4 grades 2. L'échelle analogique de la douleur (VAS) variait de 6 a 9 avec une moyenne de 7,8.L'indication opératoire chirurgicale était posée pour tous les patients par arthrodèse postérieure lombo -sacree. Pour chaque patient 2 vis étaient positionnées soitun total de 20 vis. Un suivi clinique était réalisé de 28 a 36 mois. L'EVA et ODI diminuaient de 7,8 +/- 1,7 à 1,9 +/- 1,2 et de 62,3 +/- 17,2 à 15,1 +/- 6,0respectivement. L'ensemble des résultats était stable dans le temps en particulier à long terme.Conclusion: La fixation précise de la lyse isthmique améliore la symptomatologie et probablement évite un glissement vertébral plus important , un suivi à plus long terme surune serie de patients plus importante devrait confirmer cette hypothèse.
Resumo:
Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.
Resumo:
Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.
Resumo:
RÉSUME Les techniques de résection muqueuse endoscopique utilisées actuellement ne permettent pas d'effectuer une résection circonférentielle d'un long segment de muqueuse oesophagienne. Une telle résection permettrait le traitement de foyers multicentriques de dysplasies de haut grade (HGIN) ou d'adénocarcinomes précoces (AC) développés sur oesophage de Barrett. Sachant que la prévalence des métastases ganglionnaires régionales est d'environ 7 % pour les adénocarcinomes intra-muqueux (Tis,T1a), les méthodes de traitement non-chirurgicales et moins invasives sont actuellement préférées à une oesophagectomie, dont la morbidité et la mortalité restent élevées en comparaison avec les mucosectomies endoscopiques. Un oesophagoscope rigide modifié a été développé à Lausanne en collaboration avec la maison Karl Storz GmbH, de façon à permettre des résections muqueuses étendues dans l'oesophage. Cette étude animale pilote a investigué la faisabilité et la fiabilité des résections muqueuses circonférentielles de différentes longueurs dans l'oesophage du mouton. Des résections circonférentielles de 2,2 cm (n=6), 3,3 cm (n=6), 4,4 cm (n=7) et 5,5 cm (n=5) de longueur ont été effectuées dans l'oesophage de 24 moutons. Elles consistaient en 2 mucosectomies hémi-circonférentielles opposées. Les animaux ont été suivis par des examens endoscopiques à une semaine puis chaque mois pendant 6 mois ou jusqu'à réépithélialisation complète sans sténose. Au cours du processus de guérison, les sténoses cicatricielles ont été traitées par une ou plusieurs dilatations avec les bougies de Savary. Des résections circonférentielles de 2,2 à 5,5 cm de longueur ont été réalisées avec succès dans 23/24 des cas. Une seule perforation, secondaire à une erreur de manipulation, est survenue directement après la mucosectomie. A l'analyse histologique, une profondeur de résection précise à travers la sousmuq Tyrp1ueuse a été obtenue dans 85% des specimens. Les sténoses cicatricielles ont été contrôlées dans 95% des cas par dilatations avec les bougies de Savary. L'oesophagoscope rigide modifié a permis de réaliser des résections muqueuses circonférentielles et étendues en une seule séance endoscopique d'une durée de moins d'une demi-heure. L'utilisation de ce résectoscope chez l'homme devrait permettre l'éradication complète de l'oesophage de Barrett avec HGIN et/ou AC précoce dans un avenir très proche.