569 resultados para Méthodes multipas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lecteur de l'Ancien Testament désireux d'accéder au texte hébreux est confronté à l'édition de la « Biblia Hebraica Stuttgartensia » et à son système complexe de signes critiques et de notes. Ce petit guide permet d'identifier et de comprendre la signification de toutes ces indications marginales. Par ailleurs, les auteurs précisent les méthodes habituellement utilisées par les chercheurs pour examiner les variantes et juger lesquelles se rapprochent le plus vraisemblablement du texte primitif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ EN FRANCAIS : Introduction: Le pseudoxanthome élastique (PXE) est une maladie génétique. Les mutations responsables ont été localisées au niveau du gène codant le transporteur transmembranaire ABC-C6. Des calcifications pathologiques des fibres élastiques de la peau, des yeux et du système cardiovasculaire en sont la conséquence. Buts: Evaluer les critères diagnostiques actuels du PXE en se basant sur les données moléculaires. Méthodes: 142 sujets provenant de 10 familles avec une anamnèse familiale positive pour le PXE ont été investiguées sur le plan clinique, histopathologique et génétique. Résultats: 25 sujets se sont avérés être homozygotes pour le gène PXE muté. 23 d'entre eux ont présenté les manifestations cliniques et histopathologique typiques. Les deux autres souffraient d'une élastose et d'une dégénérescence maculaire si importante qu'un diagnostic de PXE ne pouvait pas être confirmé cliniquement. 67 sujets se sont révélés être des porteurs hétérozygotes et 50 ne présentaient pas de mutation. De ces 117 sujets, 116 n'ont montré aucune lésion cutanée ou ophtalmique pouvant correspondre au PXE. Un seul des sujets sans mutation a présenté une importante élastose solaire ainsi qu'une cicatrisation de la rétine, imitant les lésions typiques du PXE. Quatre des 67 sujets hétérozygotes ont eu une biopsie de peau, dont les analyses histopathologique se sont avérées normales. Conclusion: Dans notre cohorte de patients, le PXE était transmis exclusivement de façoh autosomique récessive. La corrélation retrouvée entre le génotype et le phénotype a permis de confirmer les critères diagnostiques majeurs actuels. Le diagnostic clinique peut être difficile, voir impossible, chez des patients atteints d'une élastose solaire importante et/ou d'une dégénérescence maculaire étendue. Dans ces cas, un test moléculaire est nécessaire afin de confirmer le diagnostic de PXE. A notre connaissance, notre étude présentée ici est le premier travail comparant des données cliniques à des données moléculaires dans le domaine du PXE. ABSTRACT : Background: Pseudoxanthoma elasticum (PXE) is a genetic disorder due to mutations in the gene encoding the transmembrane transporter protein adenosine triphosphate binding cassette (ABC)-C6, resulting in calcifications of elastic fibers in the skin, eyes and cardiovascular system. Objectives: To evaluate the diagnostic criteria for PXE based on molecular data. Methods: Of 10 families with a positive history of PXE 142 subjects were investigated for clinical symptoms, histological findings and genetic haplotype analysis. Results: Of these, 25 subjects were haplotypic homozygous for PXE and 23 had typical clinical and histopathological manifestations. Two of the 25 patients showed such marked solar elastosis and macular degeneration that PXE could not be confirmed clinically. Sixty-seven subject were haplotypic heterozygous carriers and 50 haplotypic homozygous unaffected. Of these 117 subjects, 116 showed no cutaneous or ophthalmologic signs of PXE. In one of the 50 haplotypic homozygous unaffected patients important solar elastosis and scaring of the retina mimicked PXE lesions. Only four of the 67 haplotypic heterozygous carriers had biopsies of nonlesional skin; all were histopathologically normal. Conclusions: In our patients, PXE presents as an autosomal recessive genodermatosis. Correlation of haplotype and phenotype confirmed actual major diagnostic criteria. In patients with marked solar elastosis and/ or severe macular degeneration clinical diagnosis can be impossible and molecular testing is needed to confirm the presence of PXE. To the best of our knowledge our large study compares for the first time clinical findings with molecular data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

But. - Investiguer l'influence d'une hospitalisation prénatale précédant une naissance préma¬turée sur les facteurs de stress parentaux et la relation parent-enfant lors de l'hospitalisation en néonatologie ainsi que sur les symptômes de stress post-traumatique parentaux. Population et méthodes. - Population : 51 enfants prématurés et 25 enfants nés à terme (groupe témoin). Quatre groupes : groupe témoin, prématurés sans hospitalisation prénatale, prématu¬rés avec hospitalisation courte (< 8 jours) et prématurés avec hospitalisation longue (> 8 jours). Instruments: le Parental Stressor Scale: Neonatal Intensive Care Unit (PSS: NICU, Miles et al., 1993 [14]) et le Perinatal PTSD Questionnaire (PPQ, Quinnell et Hynan, 1999 [16]). Résultats. -En cas d'hospitalisation prénatale, les parents se disent plus stressés par l'environnement du bébé en néonatologie. Les mères avec une hospitalisation prénatale courte (< 8 jours) se différencient significativement du groupe témoin par plus de symptômes de stress post-traumatique. Les parents présentant plus de symptômes post-traumatiques décrivent la relation avec leur bébé en néonatologie comme significativement plus difficile. Conclusion. - Cette étude indique l'attention à apporter aux patientes hospitalisées brièvement en prénatal (< 8 jours). Il s'agit d'un groupe plus à risque de présenter des symptômes de stress post-traumatique qui peuvent engendrer des troubles dans la relation à l'enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif Un bolus unique d'étomidate inhibe une enzyme mitochondriale impliquée dans la synthèse du cortisol. Au sein de notre institution, tout patient candidat à une chirurgie cardiaque reçoit de l'étomidate à l'induction de l'anesthésie. L'objectif de cette étude a été de déterminer l'incidence des dysfonctions surrénaliennes chez les patients bénéficiant d'une chirurgie cardiaque et nécessitant de hautes doses de noradrénaline au cours de la période postopératoire. Type d'étude Étude rétrospective descriptive dans l'unité de réanimation d'un centre hospitalier universitaire. Patients et méthodes Soixante-trois patients admis en réanimation après chirurgie cardiaque nécessitant plus de 0,2μg/kg par minute de noradrénaline au cours des premières 48 heures postopératoires ont été étudiés. L'insuffisance surrénalienne absolue a été définie par un cortisol basal inférieur à 414nmo/l (15μg/dl), l'insuffisance surrénalienne relative par un cortisol basal entre 414nmo/l (15μg/dl) et 938nmo/l (34μg/dl) avec une augmentation de la cortisolémie (à 60 minutes après un test de stimulation par 250μg de corticotropine de synthèse) inférieure à 250nmo/l (9μg/dl). Résultats Quatorze patients (22 %) ont présenté une fonction surrénalienne normale, 10 (16 %) une insuffisance surrénalienne absolue et 39 (62 %) une insuffisance surrénalienne relative. Tous les patients ont reçu une substitution stéroïdienne, sans aucune différence d'évolution clinique entre les différents groupes. Conclusion L'incidence de l'insuffisance surrénalienne chez les patients qui ont reçu un bolus d'étomidate à l'induction, lors d'une chirurgie cardiaque avec circulation extracorporelle, et présenté une défaillance circulatoire postopératoire, est élevée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après avoir situé le contexte de la recherche et défini les enjeux principaux du travail, différents types de nanoparticules, ainsi que leurs principales caractéristiques, sont parcourues. L'élaboration de critères de sélection ayant permis de déterminer les types de nanoparticules potentiellement adaptés à !a détection de traces papillaires, l'étude s'est alors focalisée sur deux familles de composés: les quantum dots et les nanoparticules d'oxyde de silicium. Deux types de quantum dots ont été synthétisés : le tellurure de cadmium et le sulfure de zinc). Ils n'ont toutefois pas permis la détection de traces papillaires réalistes. En effet, seules des traces fraîches et enrichies en sécrétions ont pu être mises en évidence. Toutefois, des résultats ont été obtenus avec les deux types de quantum dots pour la détection de traces papillaires sanglantes. Après optimisation, les techniques rivalisent avec les méthodes couramment appliquées en routine. Cependant, l'interaction se produisant entre les traces et les nanoparticules n'a pas pu être déterminé. Les nanoparticules d'oxyde de silicium ont dès lors été appliquées dans le but de comprendre plus en détails les interactions avec les traces papillaires. Ces nanoparticules ont l'avantage d'offrir un très bon contrôle de surface, permettant ainsi une étude détaillée des phénomènes en jeu. Des propriétés de surface variables ont dès lors été obtenues en greffant diverses molécules à la surface des nanoparticules d'oxyde de silicium. Après avoir exploré différentes hypothèses d'interaction, il a pu être déterminé qu'une réaction chimique se produit lors qu'un groupement de type carboxyle est présent à la surface des particules. Ce groupement réagit avec les fonctions amines primaires des sécrétions. L'interaction chimique a ensuite pu être renforcée par l'utilisation d'un catalyseur, permettant d'accélérer la réaction. Dans la dernière partie du travail, les nanoparticules d'oxyde de silicium ont été comparées à une technique utilisée en routine, la fumigation de cyanoacrylate. Bien que des études plus approfondies soient nécessaires, il s'avère que l'application de nanoparticules d'oxyde de silicium permet une détection de très bonne qualité, moins dépendante du donneur que les techniques courantes. Ces résultats sont prometteurs en vue du développement d'une technique possédant une sensibilité et une sélectivité accrue. - Having situated the background of research and identified key issues of work, different types of nanoparticles and their main features are reviewed. The development of selection criteria lead to the identification of nanoparticles types potentially suitable for fingermarks detection. The study focused then On two families of compounds: quantum dots and silicon oxide nanoparticles. Two types of quantum dots were synthesized and characterised: cadmium telluride and zinc sulphide. Unfortunally, they did not allow the detection realistic fingermarks. Indeed, only fresh and groomed fingermarks have been detected. However, results have been obtained with both types of quantum dots for the detection of fingermarks in blood. After optimization procedures, the quantum dots based teshniques compete with the methods currently used in routine. However, the interaction occurring between fingermarks and nanoparticles could not be determined. Silicon oxide nanoparticles have therefore been applied in order to understand in detail the interactions With fingermarks. These nanoparticles have the advantage of providing a very good surface control, allowing am in-depth study of the phenomena involved. Versatile surface properties were therefore obtained by grafting various molecules on the surface of silicon oxide nanoparticles. Different hypotheses were investigated and it was determined that a chemical reaction occurred between the surface functionalised nanoparticles and the fingermark residues. The carboxyl groups on the surface of the particles react with primary amines of the secretions. Therefore, this interaction was improved by the use of a catalyst. In the last part of the work, silicon oxide nanoparticles were compared to a routinely used technique: cyanocrylate fuming. Although further studies are still needed, it appears that the application of silicon oxide nanoparticles allows fingermark detection of very good quality, with a lowered donor dependency. These results are promising for the development of techniques with greater sensitivity and selectivity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La sécrétion d'insuline est régulée par le glucose et également pardes hormones peptidiques libérées par le tractus digestif, comme la neurotensine(NT). La NT est un neuropeptide, sécrété notamment par les cellules N dela paroi de l'estomac, qui exerce des fonctions régulatrices complexes dans lesystème digestif. Notre laboratoire a récemment démontré que les cellulesendocrines du pancréas (les îlots de Langherans) expriment les trois récepteursconnus de la NT. Nous avons montré que la NT module la survie de la cellulebêta pancréatique (Coppola et al. 2008). Cette fonction met en jeu deux desrécepteurs de la NT, le NTSR2 et le NTSR3 qui forment, après stimulation parla NT, un complexe protéique régulateur de la survie des cellules (Béraud-Dufour et al. 2009) et également de la sécrétion d'insuline (Béraud-Dufour et al.2010).Matériels et méthodes : La caractérisation pharmacologique de l'effet NT sur lasécrétion d'insuline a été faite à l'aide de ligands spécifiques (agonistes ou antagonistes),dans des expériences d'imagerie calciques et d'exocytose. Nous avonsmesuré l'acivation des PKC par imagerie en temps réel. Afin de déterminer lerôle de la NT dans la physiologie générale nous avons utilisé des modèles in vitro(lignées de cellules INS-1E) et in vivo (souris invalidées NTSR1 et NTSR2).Résultats : Nous avons montré que les récepteurs NTSR2 et NTSR3 interviennentdans la modulation de la sécrétion d'insuline en fonction des conditionsphysiologiques : 1) la NT stimule la sécrétion dans des conditions basales deglucose. 2) elle inhibe la sécrétion dans des situations d'hyperglycémie. La NTmobilise plusieurs activités protéines kinases C (PKC) nécessaires à son rôlephysiologique (Béraud-Dufour et al. 2010).Par ailleurs, sur les modèles murins l'étude du métabolisme de souris transgéniquesinvalidées pour les gènes des NTSR1 et NTSR2 a permis de mettre en évidencel'implication de la NT dans la régulation de l'homéostasie du glucose. Invivo, nous avons observé que l'injection intra péritonéale de NT diminue la glycémieet que cet effet nécessite la présence du NTSR1. Nous avons observé quel'invalidation du gène du NTSR1 affecte la réponse des souris lors des tests detolérance au glucose et à l'insulineConclusion : Les résultats obtenus dans cette étude prouvent que le bon fonctionnementdu système neurotensinergique est nécessaire au maintien d'uneglycémie stable. La dérégulation de ce système pourrait être l'un des facteursimpliqué dans la survenue et/ou l'aggravation d'un diabète de type 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Exposer une nouvelle technique permettant le retrait de ciment extra-vertebral par fuite accidentelle lors du retrait du matériel. Matériels et méthodes: Nous injectons le ciment lorsque sa densité est celle d'une pâte dentifrice pour éviter les passages vasculaires. Lorsque la vertèbre est parfaitement remplie,nous patientons quelques minutes pour éviter la fuite de ciment le long du trajet (environ 4 a 6 cc en moyenne par vertèbre sont injectés). Malgré ces précautions,une fuite de ciment peut survenir lors du retrait du trocart. Cette complication est rare lorsque l'on prend les précautions nécessaires. Cependant, si la pressionintra-vertébrale est importante, le ciment peut être aspiré en dehors de la vertèbre. Résultats: L'aiguille du trocart est retirée pour être remplacée par une pince d'endoscopie 13 gauges. Sous guidage scopique, l'extraction se fait sous contrôle continu ; lapince retirant la fuite de ciment. Conclusion: La connaissance de cette intervention peut être très utile pour les équipes de radiologie interventionnelle , d'orthopédie et de neurochirurgie réalisant desvertébroplasties, pouvant être confrontées à ce type de problèmes.