986 resultados para Méthodes épidémiologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouvelles recommandations dans la production de canneberges suggèrent l’utilisation de l’irrigation souterraine, une méthode susceptible d’augmenter l’accumulation de sels dans le sol. Par ailleurs, le prélèvement d’eaux souterraines saumâtres dans des nappes résiduelles de la mer Champlain sous les dépôts d’argile dans la vallée du St-Laurent ou résultant du rehaussement des niveaux marins dans les zones côtières dû aux changements climatiques pourrait affecter la productivité des canneberges cultivées dans l’Est du Canada. Puisque très peu de données concernant la tolérance de la canneberge à la salinité sont disponibles, cette étude a été menée afin de déterminer si ces nouvelles recommandations pourraient éventuellement affecter le rendement de la plante. Dans une serre, des plants de canneberge ont été soumis à huit traitements obtenus à partir de deux méthodes d’irrigation (aspersion et irrigation souterraine) et quatre niveaux de salinité créés par des quantités croissantes de K2SO4 (125, 2 500, 5 000 et 7 500 kg K2O ha-1). L’irrigation souterraine a entraîné des conditions édaphiques plus sèches. Cependant, aucune différence significative de la conductivité électrique de la solution du sol (CEss) n’a été observée entre les deux types d’irrigation. Pourtant, les taux de photosynthèse et la nouaison étaient significativement plus faibles chez les plantes sous traitement d’irrigation souterraine. Les paramètres de croissance ont diminué de façon linéaire avec l’augmentation de la salinité alors que les paramètres de rendement ont connu une diminution quadratique avec l’élévation de la CEss. Une CEss moyenne de 3,2 dS m-1 pendant la floraison a provoqué une chute de 22% du taux relatif de photosynthèse et une diminution de 56% du rendement par rapport au témoin. Le suivi de la conductivité électrique du sol lors de l’implantation d’une régie d’irrigation souterraine de déficit en production de canneberges serait donc recommandable afin d’éviter le stress salin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino de História e de Geografia no 3º Ciclo do Ensino Básico e Ensino Secundário, Universidade de Lisboa, 2011

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est le fruit d’une réflexion portant sur la pulsion qui m’habite de sans cesse créer de nouveaux objets, ainsi que sur les rapports que j’entretiens avec mes objets d’art et les objets manufacturés qui nous entourent. Elle s’est construite peu à peu, dans un aller-retour entre production à l’atelier et retour critique. Au cours des deux dernières années, j’ai cherché, par l’entremise de sculptures et d’œuvres installatives, à comprendre ma fascination pour le fait de vivre dans une société dont l’activité fondamentale semble être une transformation constante d’énergie et de matière. Dans un premier temps, j’y dresse plusieurs constats relatifs à mon positionnement comme artiste face aux différents discours sur l’art. Essentiellement, je développe l’idée que je n’ai pas besoin de régler le cas de l’art, d’un point de vue théorique, pour faire de l’art. Dans la seconde partie, je réfléchis sur différentes caractéristiques de ma démarche : le fait que je cherche à créer des objets qui s’insèrent et se comportent dans le réel comme des anomalies, que ma démarche est perméable à tout ce qui constitue mon expérience de vie, ou encore que j’active en manipulant de façon intuitive du matériel chargé de significations multiples. Dans un troisième temps, je présente la nature de l’imaginaire qui m’habite et explique la façon dont ce dernier influence ma manière de faire de l’art et la morphologie de mes œuvres. Vient ensuite un chapitre dans lequel je me penche sur mon passé de designer industriel et de musicien, dans lequel j’illustre la façon dont ces deux expériences de création, bien que fort différentes de l’art contemporain, influencent ma pratique actuelle. Finalement, je ferai une représentation schématisée des concepts, des méthodes et des dynamiques à l’œuvre dans mon processus créatif. Cette multitude de regards différents sur ma pratique permettra de faire ressortir, tout au long de ce mémoire, que ma démarche est nourrie par une série de tensions que je cherche à réconcilier, sans vraiment y parvenir, et que c’est cette impossibilité qui me pousse constamment à créer des nouvelles œuvres. Bien que mes œuvres soient souvent interprétées comme des commentaires sur l’actualité, le présent mémoire n’a pas comme point central l’actualité, mais bien mon travail de création, la façon dont il fonctionne, ce à quoi il est relié, etc. Je ne me pose pas la question « pourquoi et comment transformons-nous l’énergie et la matière? », mais plutôt « comment puis-je transformer le monde en transformant autrement l’énergie et la matière? »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de projeto de mestrado, Ciências da Educação (Formação de Adultos), Universidade de Lisboa, Instituto de Educação, 2011

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino da Economia e Contabilidade, Universidade de Lisboa, 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Mestre Alberto Couto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ferreira de Castro (1898-1974) e Miguel Torga (1907-1995) viveram ambos, no início da adolescência, a dura experiência de emigração para o Brasil. O primeiro partiu com apenas doze anos, em 1911, o segundo, com treze, em 1920. Ambos procuraram o ―Eldorado‖, cruzaram o Atlântico num vapor, cresceram, amadureceram, regressaram a Portugal, revisitaram novamente o Brasil e escreveram sobre essas vivências, como é corroborado por Emigrantes e A Selva de Ferreira de Castro, o Diário, A Criação do Mundo, Traço de União de Miguel Torga que constituem o nosso corpus de trabalho. No presente artigo, analisaremos à luz da imagologia, um dos métodos da literatura comparada, que visa precisamente o estudo das imagens, as representações do Brasil que emergem da obra destes dois escritores. Nesta sequência, analisaremos, numa óptica comparatista, a ficcionalização das vivências dos autores, a trajectórias das suas personagens, contemplando, na configuração do espaço estrangeiro, as primeiras impressões e sua evolução, as descrições da paisagem, do povo, da vida e da cultura brasileiras. Além disso, seguiremos os caminhos da alteridade para desvendarmos igualmente o modo como é visto o ―outro‖, e a forma como se inscreve no discurso. Em suma, analisaremos o impacto da vivência da emigração, a importância desempenhada pelo país de acolhimento na obra dos dois escritores supramencionados, atendendo às ressonâncias da luso-brasilidade, alicerçadoras de uma maior abertura e dum diálogo mais próximo com o Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I (Pratiques Pédagogiques)- Ce compte-rendu du stage réalisé pour ma deuxième année de master rapporte le résultat de l’observation des cours donnés à trois élèves de niveaux différents par le professeur de harpe de l’Ecole de Musique « Nossa Senhora do Cabo » à Linda-a-Velha, commune de Oeiras, située près de Lisbonne. Grâce à l’activité du professeur, et par le suivi de l’évolution de ses élèves tout au long de l’année scolaire 2012-2013, tant sur le plan technique que sur le plan musical, j’ai pu participer à toutes les étapes de leur apprentissage et retrouver quelques principes pédagogiques fondamentaux. Ainsi, j’ai constaté la nécessité d’une organisation didactique solide dans la définition d’objectifs, la planification du travail, le choix des méthodes d’étude, mais souple par la régulation des rythmes d’apprentissage et des techniques d’acquisition. La métacognition est aussi une notion composante essentielle de la pratique du professeur, dont un des grands objectifs est de développer chez ses élèves la capacité de se prendre en charge seul. J’ai également apprécié l’importance de l’aspect relationnel intrinsèque à toute situation d’apprentissage, ainsi que celle de la connaissance des théories de la motivation, atout important permettant d’agir au niveau psychologique sur les élèves et d’obtenir à plus ou moins long terme des changements comportementaux influents sur la qualité de ces apprentissages. J’ai enfin essayé de dégager différents types d’approches pédagogiques possibles, parmi les stratégies observées chez le professeur, ainsi que d’après quelques éléments de réflexion personnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Desde 1976 que as Forças Armadas desenvolvem acções de prevenção do consumo de drogas e álcool. Na década de 80 foi criada capacidade laboratorial e deu-se início a um programa de rastreios toxicológicos. No quinquénio 2001 a 2005, as proporções de resultados positivos, associando todos os tipos de rastreio, variaram entre 3,7% e 1,5%. De Outubro de 2006 a Julho de 2007 realizou-se um estudo analítico transversal, para estimar a prevalência do consumo de drogas (canabinóides, opiáceos, cocaína e anfetaminas) num dos Ramos das Forças Armadas, com base nos despistes realizados pelo seu laboratório. Foi utilizada uma amostra aleatória simples de 1039 militares, profissionais (QP) e contratados (RC), no activo e de ambos os sexos. Desde a nomeação dos militares a rastrear, passando pela cadeia de custódia das amostras até à obtenção do resultado foi utilizado apoio informático específico. O processo de pesquisa utilizou duas técnicas de triagem por imunoensaio e tecnologia de confirmação por GC/MS, de acordo com as recomendações europeias, permitindo estabelecer uma metodologia standard para organizações e empresas. A prevalência estimada, de consumidores de droga, foi de 3,8/1.000, para um erro de 0,37%. O número de casos registado (4) não permitiu a utilização de testes estatísticos que conduzissem à identificação de características determinantes da positividade, mas não deixou de revelar aspectos inesperados. A observação de séries de casos e a realização regular de estudos epidemiológicos, que ajudem a redefinir grupos alvo e a perceber a dimensão, as determinantes e as consequências do consumo de drogas é sugerida, em conclusão.--------------------------------------- RÉSUMÉ: Depuis 1976, les Forces Armées mettent au point des mesures visant à prévenir la consommation de drogues et d'alcool. En 1980, fut créé capacité laboratoriel et ont ensuite commencé un programme de dépistage toxicologique. Au cours des cinq années allant de 2001 à 2005, les proportions de consommateurs, impliquant tous les types de dépistage, allaient de 3,7% à 1,5 %. D'octobre 2006 à juillet 2007, une étude analytique transversale a été organisée pour évaluer la prévalence de l’usage de drogues (cannabis, opiacés, cocaïne et amphétamines) dans une branche de les Forces Armées, basée sur les dépistages faites par un laboratoire militaire, à l'aide d'un échantillon aléatoire de 1039 militaires, professionnels (QP) et sous contract (RC), à l’actif et des deux sexes. Tout au long du procès, de la nomination des donneurs, en passant par la chaine de garde des échantillons, jusqu’à obtention du résultat, il fut employé un appui informatique sécurisé. Le processus de recherche employa deux techniques de tri par imunoessay et la technologie de confirmation GC/MS, selon les recommandations européennes, permettant d'établir une méthodologie standard pour les organisations et les entreprises. La prévalence estimée fut de 3,8/1.000 pour une marge d’erreur de 0,37%. Le nombre de cas enregistrés (4) n'autorise pas l'utilisation de testes statistiques de menant à l'identification de caractéristiques déterminant de la positivité, mais il permet à révéler des aspects inattendus. L'observation de séries de cas et la tenue régulière d’études épidémiologiques, qui contribuent à redéfinir les groupes cibles et de comprendre l'ampleur, les déterminants et les conséquences de l'usage de drogues, est suggéré, en fin de compte.--------------------------------------- ABSTRACT: Since 1976, the Armed Forces, have been developing measures to prevent the use of drugs and alcohol. In 1980, was created laboratory facility which then started a program of toxicological screenings. In the five years running from 2001 to 2005, the proportions of consumers, involving all types of screening, ranged from 3,7% to 1,5%. From October 2006 to July 2007, a cross-sectional study was held to estimate the prevalence of drug use (cannabinoids, opiates, cocaine and amphetamines) in one branch of the Portuguese Armed Forces, based on laboratory screenings, using a random sample of 1039 military, professional (QP) and enlisted (RC), active-duty and of both sexes. Specific computer support was used all the way, from the appointment, including the chain of custody of samples, to the obtaining of the result. The process of search used two techniques for sorting by immunoassay and confirmation technology GC/MS, according to European recommendations, allowing to establish a standard methodology for organizations and companies. The estimated prevalence of drug users was 3.8/1.000 for a 0.37% error (95% confidence interval). The number of cases registered (4) does not permit use of statistical testing leading to the identification of characteristics weighing in the establishing to extrapolate for the population, but it allows revealing unexpected aspects. The observation of series of cases and the regular holding of epidemiological studies, which help redefine target groups and to understand the extent, the determinants and consequences of drug use, is suggested, in conclusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Les progrès techniques de la spectrométrie de masse (MS) ont contribué au récent développement de la protéomique. Cette technique peut actuellement détecter, identifier et quantifier des milliers de protéines. Toutefois, elle n'est pas encore assez puissante pour fournir une analyse complète des modifications du protéome corrélées à des phénomènes biologiques. Notre objectif était le développement d'une nouvelle stratégie pour la détection spécifique et la quantification des variations du protéome, basée sur la mesure de la synthèse des protéines plutôt que sur celle de la quantité de protéines totale. Pour cela, nous volions associer le marquage pulsé des protéines par des isotopes stables avec une méthode d'acquisition MS basée sur le balayage des ions précurseurs (precursor ion scan, ou PIS), afin de détecter spécifiquement les protéines ayant intégré les isotopes et d'estimer leur abondance par rapport aux protéines non marquées. Une telle approche peut identifier les protéines avec les plus hauts taux de synthèse dans une période de temps donnée, y compris les protéines dont l'expression augmente spécifiquement suite à un événement précis. Nous avons tout d'abord testé différents acides aminés marqués en combinaison avec des méthodes PIS spécifiques. Ces essais ont permis la détection spécifique des protéines marquées. Cependant, en raison des limitations instrumentales du spectromètre de masse utilisé pour les méthodes PIS, la sensibilité de cette approche s'est révélée être inférieure à une analyse non ciblée réalisée sur un instrument plus récent (Chapitre 2.1). Toutefois, pour l'analyse différentielle de deux milieux de culture conditionnés par des cellules cancéreuses humaines, nous avons utilisé le marquage métabolique pour distinguer les protéines d'origine cellulaire des protéines non marquées du sérum présentes dans les milieux de culture (Chapitre 2.2). Parallèlement, nous avons développé une nouvelle méthode de quantification nommée IBIS, qui utilise des paires d'isotopes stables d'acides aminés capables de produire des ions spécifiques qui peuvent être utilisés pour la quantification relative. La méthode IBIS a été appliquée à l'analyse de deux lignées cellulaires cancéreuses complètement marquées, mais de manière différenciée, par des paires d'acides aminés (Chapitre 2.3). Ensuite, conformément à l'objectif initial de cette thèse, nous avons utilisé une variante pulsée de l'IBIS pour détecter des modifications du protéome dans des cellules HeLa infectée par le virus humain Herpes Simplex-1 (Chapitre 2.4). Ce virus réprime la synthèse des protéines des cellules hôtes afin d'exploiter leur mécanisme de traduction pour la production massive de virions. Comme prévu, de hauts taux de synthèse ont été mesurés pour les protéines virales détectées, attestant de leur haut niveau d'expression. Nous avons de plus identifié un certain nombre de protéines humaines dont le rapport de synthèse et de dégradation (S/D) a été modifié par l'infection virale, ce qui peut donner des indications sur les stratégies utilisées par les virus pour détourner la machinerie cellulaire. En conclusion, nous avons montré dans ce travail que le marquage métabolique peut être employé de façon non conventionnelle pour étudier des dimensions peu explorées en protéomique. Summary : In recent years major technical advancements greatly supported the development of mass spectrometry (MS)-based proteomics. Currently, this technique can efficiently detect, identify and quantify thousands of proteins. However, it is not yet sufficiently powerful to provide a comprehensive analysis of the proteome changes correlated with biological phenomena. The aim of our project was the development of ~a new strategy for the specific detection and quantification of proteomé variations based on measurements of protein synthesis rather than total protein amounts. The rationale for this approach was that changes in protein synthesis more closely reflect dynamic cellular responses than changes in total protein concentrations. Our starting idea was to couple "pulsed" stable-isotope labeling of proteins with a specific MS acquisition method based on precursor ion scan (PIS), to specifically detect proteins that incorporated the label and to simultaneously estimate their abundance, relative to the unlabeled protein isoform. Such approach could highlight proteins with the highest synthesis rate in a given time frame, including proteins specifically up-regulated by a given biological stimulus. As a first step, we tested different isotope-labeled amino acids in combination with dedicated PIS methods and showed that this leads to specific detection of labeled proteins. Sensitivity, however, turned out to be lower than an untargeted analysis run on a more recent instrument, due to MS hardware limitations (Chapter 2.1). We next used metabolic labeling to distinguish the proteins of cellular origin from a high background of unlabeled (serum) proteins, for the differential analysis of two serum-containing culture media conditioned by labeled human cancer cells (Chapter 2.2). As a parallel project we developed a new quantification method (named ISIS), which uses pairs of stable-isotope labeled amino acids able to produce specific reporter ions, which can be used for relative quantification. The ISIS method was applied to the analysis of two fully, yet differentially labeled cancer cell lines, as described in Chapter 2.3. Next, in line with the original purpose of this thesis, we used a "pulsed" variant of ISIS to detect proteome changes in HeLa cells after the infection with human Herpes Simplex Virus-1 (Chapter 2.4). This virus is known to repress the synthesis of host cell proteins to exploit the translation machinery for the massive production of virions. As expected, high synthesis rates were measured for the detected viral proteins, confirming their up-regulation. Moreover, we identified a number of human proteins whose synthesis/degradation ratio (S/D) was affected by the viral infection and which could provide clues on the strategies used by the virus to hijack the cellular machinery. Overall, in this work, we showed that metabolic labeling can be employed in alternative ways to investigate poorly explored dimensions in proteomics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le glucose est notre principale source d'énergie. Après un repas, le taux de glucose dans le sang (glycémie) augmente, ce qui entraine la sécrétion d'insuline. L'insuline est une hormone synthétisée au niveau du pancréas par des cellules dites bêta. Elle agit sur différents organes tels que les muscles, le foie ou le tissu adipeux, induisant ainsi le stockage du glucose en vue d'une utilisation future.¦Le diabète est une maladie caractérisée par un taux élevé de glucose dans le sang (hyperglycémie), résultant d'une incapacité de notre corps à utiliser ou à produire suffisamment d'insuline. A long terme, cette hyperglycémie entraîne une détérioration du système cardio-vasculaire ainsi que de nombreuses complications. On distingue principalement deux type de diabète : le diabète de type 1 et le diabète de type 2, le plus fréquent (environ 90% des cas). Bien que ces deux maladies diffèrent sur beaucoup de points, elles partagent quelques similitudes. D'une part, on décèle une diminution de la quantité de cellules bêta. Cette diminution est cependant partielle dans le cas d'un diabète de type 2, et totale dans celui d'un diabète de type 1. D'autre part, la présence dans la circulation de médiateurs de l'inflammation nommés cytokines est décelée aussi bien chez les patients de type 1 que de type 2. Les cytokines sont sécrétées lors d'une inflammation. Elles servent de moyen de communication entre les différents acteurs de l'inflammation et ont pour certaines un effet néfaste sur la survie des cellules bêta.¦L'objectif principal de ma thèse a été d'étudier en détail l'effet de petites molécules régulatrices de l'expression génique, appelées microARNs. Basé sur le fait que de nombreuses publications ont démontré que les microARNs étaient impliqués dans différentes maladies telles que le cancer, j'ai émis l'hypothèse qu'ils pouvaient également jouer un rôle important dans le développement du diabète.¦Nous avons commencé par mettre des cellules bêta en culture en présence de cytokines, imitant ainsi un environnement inflammatoire. Nous avons pu de ce fait identifier les microARNs dont les niveaux d'expression étaient modifiés. A l'aide de méthodes biochimiques, nous avons ensuite observé que la modulation de certains microARNs par les cytokines avaient des effets néfastes sur la cellule bêta : sur sa production et sa sécrétion d'insuline, ainsi que sur sa mort (apoptose). Nous avons en conséquence pu démontrer que ces petites molécules avaient un rôle important à jouer dans le dysfonctionnement des cellules bêta induit par les cytokines, aboutissant au développement du diabète.¦-¦La cellule bêta pancréatique est une cellule endocrine présente dans les îlots de Langerhans, dans le pancréas. L'insuline, une hormone sécrétée par ces cellules, joue un rôle essentiel dans la régulation de la glycémie. Le diabète se développe si le taux d'insuline relâché par les cellules bêta n'est pas suffisant pour couvrir les besoins métaboliques corporels. Le diabète de type 1, qui représente environ 5 à 10% des cas, est une maladie auto-immune qui se caractérise par une réaction inflammatoire déclenchée par notre système immunitaire envers les cellules bêta. La conséquence de cette attaque est une disparition progressive des cellules bêta. Le diabète de type 2 est, quant à lui, largement plus répandu puisqu'il représente environ 90% des cas. Des facteurs à la fois génétiques et environnementaux sont responsables d'une diminution de la sensibilité des tissus métabolisant l'insuline, ainsi que d'une réduction de la sécrétion de l'insuline par les cellules bêta, ce qui a pour conséquence le développement de la maladie. Malgré les différences entre ces deux types de diabète, ils ont pour points communs la présence d'infiltrat immunitaire et la diminution de l'état fonctionnel des cellules bêta.¦Une meilleure compréhension des mécanismes aboutissant à l'altération de la cellule bêta est primordiale, avant de pouvoir développer de nouvelles stratégies thérapeutiques capables de guérir cette maladie. Durant ma thèse, j'ai donc étudié l'implication de petites molécules d'ARN, régulatrices de l'expression génique, appelées microARNs, dans les conditions physiopathologiques qui aboutissent au développement du diabète. J'ai débuté mon étude par l'identification de microARNs dont le niveau d'expression était modifié lorsque les cellules bêta étaient exposées à des conditions favorisant à la fois le développement du diabète de type 1 (cytokines) et celui du diabète de type 2 (palmitate). Nous avons découvert qu'une modification de l'expression des miR-21, -34a et -146a était commune aux deux traitements. Ces changements d'expressions ont également été confirmés dans deux modèles animaux : les souris NOD qui développent un diabète s'apparentant au diabète de type 1 et les souris db/db qui développent plutôt un diabète de type 2. Puis, à l'aide de puces à ADN, nous avons comparé l'expression de microARNs chez des souris NOD pré-diabétiques. Nous avons alors retrouvé des changements au niveau de l'expression des mêmes microARNs mais également au niveau d'une famille de microARNs : les miR-29a, -29b et -29c. De manière artificielle, nous avons ensuite surexprimé ou inhibé en conditions physiopathologiques l'expression de tous ces microARNs et nous nous sommes intéressés à l'impact d'un tel changement sur différentes fonctions de la cellule bêta comme la synthèse et la sécrétion d'insulinè ainsi que leur survie. Nous avons ainsi pu démontrer que les miR-21, -34a, -29a, -29b, -29c avaient un effet délétère sur la sécrétion d'insuline et que la surexpression de tous ces microARNs (excepté le miR-21) favorisait la mort. Finalement, nous avons démontré que la plupart de ces microARNs étaient impliqués dans la régulation d'importantes voies de signalisation responsables de l'apoptose des cellules bêta telles que les voies de NFKB, BCL2 ou encore JNK.¦Par conséquent, nos résultats démontrent que les microARNs ont un rôle important à jouer dans le dysfonctionnement des cellules bêta lors de la mise en place du diabète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Methicillin resistant Staphylococcus aureus (MRSA) bacteria have emerged in the early 1980's in numerous health care institutions around the world. The main transmission mechanism within hospitals and healthcare facilities is through the hands of health care workers. Resistant to several antibiotics, the MRSA is one of the most feared pathogens in the hospital setting since it is very difficult to eradicate with the standard treatments. There are still a limited number of anti-MRSA antibiotics but the first cases of resistance to these compounds have already been reported and their frequency is likely to increase in the coming years. Every year, the MRSA infections result in major human and financial costs, due to the high associated mortality and expenses related to the required care. Measures towards a faster detection of resistant bacteria and establishment of appropriate antibiotic treatment parameters are fundamental. Also as part as infection prevention, diminution of bacteria present on the commonly touched surfaces could also limit the spread and selection of antibiotic resistant bacteria. During my thesis, projects were developed around MRSA and antibiotic resistance investigation using innovative technologies. The thesis was subdivided in three main parts with the use of atomic force microscopy AFM for antibiotic resistance detection in part 1, the importance of the bacterial inoculum size in the selection of antibiotic resistance in part 2 and the testing of antimicrobial surfaces creating by sputtering copper onto polyester in part 3. In part 1 the AFM was used two different ways, first for the measurement of stiffness (elasticity) of bacteria and second as a nanosensor for antibiotic susceptibility testing. The stiffness of MRSA with different susceptibility profiles to vancomycin was investigated using the stiffness tomography mode of the AFM and results have demonstrated and increased stiffness in the vancomycin resistant strains that also paralleled with increased thickness of the bacterial cell wall. Parts of the AFM were also used to build a new antibiotic susceptibility-testing device. This nano sensor was able to measure vibrations emitted from living bacteria that ceased definitively upon antibiotic exposure to which they were susceptible but restarted after antibiotic removal to which they were resistant, allowing in a matter of minute the assessment of antibiotic susceptibility determination. In part 2 the inoculum effect (IE) of vancomycin, daptomycin and linezolid and its importance in antibiotic resistance selection was investigated with MRSA during a 15 days of cycling experiment. Results indicated that a high bacterial inoculum and a prolonged antibiotic exposure were two key factors in the in vitro antibiotic resistance selection in MRSA and should be taken into consideration when choosing the drug treatment. Finally in part 3 bactericidal textile surfaces were investigated against MRSA. Polyesters coated after 160 seconds of copper sputtering have demonstrated a high bactericidal activity reducing the bacterial load of at least 3 logio after one hour of contact. -- Au cours des dernières décennies, des bactéries multirésistantes aux antibiotiques (BMR) ont émergé dans les hôpitaux du monde entier. Depuis lors, le nombre de BMR et la prévalence des infections liées aux soins (IAS) continuent de croître et sont associés à une augmentation des taux de morbidité et de mortalité ainsi qu'à des coûts élevés. De plus, le nombre de résistance à différentes classes d'antibiotiques a également augmenté parmi les BMR, limitant ainsi les options thérapeutiques disponibles lorsqu'elles ont liées a des infections. Des mesures visant une détection plus rapide des bactéries résistantes ainsi que l'établissement des paramètres de traitement antibiotiques adéquats sont primordiales lors d'infections déjà présentes. Dans une optique de prévention, la diminution des bactéries présentes sur les surfaces communément touchées pourrait aussi freiner la dissémination et l'évolution des bactéries résistantes. Durant ma thèse, différents projets incluant des nouvelles technologies et évoluant autour de la résistance antibiotique ont été traités. Des nouvelles technologies telles que le microscope à force atomique (AFM) et la pulvérisation cathodique de cuivre (PCC) ont été utilisées, et le Staphylococcus aureus résistant à la méticilline (SARM) a été la principale BMR étudiée. Deux grandes lignes de recherche ont été développées; la première visant à détecter la résistance antibiotique plus rapidement avec l'AFM et la seconde visant à prévenir la dissémination des BMR avec des surfaces crées grâce à la PCC. L'AFM a tout d'abord été utilisé en tant que microscope à sonde locale afin d'investiguer la résistance à la vancomycine chez les SARMs. Les résultats ont démontré que la rigidité de la paroi augmentait avec la résistance à la vancomycine et que celle-ci corrélait aussi avec une augmentation de l'épaisseur des parois, vérifiée grâce à la microscopie électronique. Des parties d'un AFM ont été ensuite utilisées afin de créer un nouveau dispositif de test de sensibilité aux antibiotiques, un nanocapteur. Ce nanocapteur mesure des vibrations produites par les bactéries vivantes. Après l'ajout d'antibiotique, les vibrations cessent définitivement chez les bactéries sensibles à l'antibiotique. En revanche pour les bactéries résistantes, les vibrations reprennent après le retrait de l'antibiotique dans le milieu permettant ainsi, en l'espace de minutes de détecter la sensibilité de la bactérie à un antibiotique. La PCC a été utilisée afin de créer des surfaces bactéricides pour la prévention de la viabilité des BMR sur des surfaces inertes. Des polyesters finement recouverts de cuivre (Cu), connu pour ses propriétés bactéricides, ont été produits et testés contre des SARMs. Une méthode de détection de viabilité des bactéries sur ces surfaces a été mise au point, et les polyesters obtenus après 160 secondes de pulvérisation au Cu ont démontré une excellente activité bactéricide, diminuant la charge bactérienne d'au moins 3 logio après une heure de contact. En conclusion, l'utilisation de nouvelles technologies nous a permis d'évoluer vers de méthodes de détection de la résistance antibiotique plus rapides ainsi que vers le développement d'un nouveau type de surface bactéricide, dans le but d'améliorer le diagnostic et la gestion des BMR.