53 resultados para laboratoires
Resumo:
[Convention collective. Médecine dentaire. France. 1960]
Resumo:
Travail dirigé
Resumo:
Description based on: Bulletin no 85; title from cover.
Resumo:
Mode of access: Internet.
Resumo:
Rapport de Synthése : Introducfíon : la maladie diverticulaire est devenue un problème majeur de santé communautaire et occupe la cinquième place en termes de coûts des maladies digestives. La diverticulite représente sa complication la plus fréquente chez environ 20-25% des patients avec une maladie diverticulaire. Son taux de récidive après un premier épisode de diverticulite est estimé à 20%. Historiquement, il était accepté que le taux de complications et d'échec du traitement conservateur de la diverticulite soient plus élevés lors de récidive qu'après un épisode initial. Ceci a amené la communauté médicale ä un consensus qui est de proposer une sigmoidectomie élective suite à un 2ème épisode de diverticulite. De nouvelles données et réinterprétations de travaux antérieurs ont remis en question ce consensus. Par ces faits, les dernières recommandations de la société américaine de chirurgie colorectale restent encore évasives dues au manque d'évidence. Le but de cette thèse est de déterminer si la récidive de diverticulite a une présentation clinique et radiologique différente d'un épisode initiale et si le risque d'échec du traitement est réellement plus élevé. Méthode : étude rétrospective .de 271 patients consécutifs admis dans le service. de chirurgie viscérale CHUV pour diverticulite, confirmée par CT-scan, de 2001 à 2004. 202 patients présentaient un épisode initial (groupe I), et 69 une récidive (groupe R). Au total 20 paramètres cliniques et 15 radiologiques ont été analysés et comparés entre les 2 groupes, dont le taux de prise en charge chirurgicale, la présentation clinique initiale, la réponse au traitement, les complications, les paramètres de laboratoires, la présence de liquide libre, d'abcès ou de pneumopéritoine au scanner. Une analyse statistique univariée a été effectuée. Résultats : aucun des paramètres cliniques ou radiologiques n'étaient différents entre les deux groupes. Concernant la chirurgie, 15.8% des patients dans le groupe I ont nécessité une prise en charge chirurgicale à l'admission comparé à 5.8% dans le groupe R (p=0.04). Le taux d'échec du traitement conservateur dans les deux groupes était similaire (10.7% vs 10.0% ; p=0.84). Le taux de mortalité à 30 jours était de 3% dans le groupe I et 0% dans le groupe R (p= 0.34). Conclusion : selon les résultats de cette étude, la récidive de diverticulite n'entraîne pas plus de complications ni d'échec du traitement conservateur. De plus, le taux de prise en charge chirurgicale à l'admission du patient est moins fréquent en cas de récidive. Ces résultats remettent en questions le consensus actuel de prise en charge chirurgicale élective.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en Sciences infirmières option formation
Resumo:
La technologie est une manière pour la science d’exprimer son côté pratique en plus d’être un moyen de traduire les connaissances lors de vraies applications scientifiques, mais ce processus peut engendrer une variété de défis moraux et éthiques. Le champ des biotechnologies laisse entrevoir de grandes réalisations pour les sociétés, y compris des traitements médicaux révolutionnaires et des aliments modifiés génétiquement, lesquels seraient sécuritaires, accessibles et largement disponibles. Mais peu de produits ont réussi le saut dans le panier du consommateur. Dans un des domaines d'application les plus prometteurs, tel celui des biotechnologies agricoles, certaines technologies n’ont pas encore entièrement émergé des laboratoires et ces produits, qui sont à l’heure actuelle sur le marché, ont été la source de polémiques significatives. L’étude présente se concentre sur le cas des vaccins faits à partir de plantes transgéniques qui, au cours des 15 dernières années, a peine à passer outre l’étape de la preuve de conception. Ces vaccins stagnent là où ils auraient dû accomplir la « promesse d'or » de fournir à bas coût une inoculation efficace pour les populations pauvres des pays en voie de développement. La question examinée dans cet essai est pourquoi, au-delà du processus de la découverte et de la conceptualisation, de telles technologies éprouvent des difficultés à atteindre leur maturité et ainsi retarde l’implantation dans les sociétés contemporaines ? Quels facteurs particuliers, sous l’angle de la bioéthique, auront besoin d’une reconsidération dans le cas échéant d’une mise en application de ces technologies pour être acceptées par les consommateurs, et avoir ainsi un impact positif sur la santé globale et l’accès équitable aux soins de santé ?
Resumo:
L’internationalisation des services génétiques s’explique à la fois par la rareté de certains troubles génétiques et par le nombre restreint de laboratoires effectuant des tests spécialisés. Par leur nature même, les tests génétiques comportent des risques et doivent faire l’objet d’un contrôle serré. L’absence de contrôle international des laboratoires génétiques soulève d’importantes questions juridiques et éthiques. Le présent mémoire démontre, dans un premier article, les normes d’encadrement des laboratoires génétiques canadiens. Un second article compare des normes d’encadrement des laboratoires génétiques dans quatre pays membres de l’OCDE : la France, les États-Unis, l’Australie et le Royaume-Uni. Dans troisième article, les principaux droits des patients des services génétiques au Canada, aux États-Unis, en Australie et au Royaume-Uni sont comparés. Finalement, un quatrième article analyse les implications éthiques de la coexistence de différentes normes d’encadrement des laboratoires et des droits des patients, dans le contexte actuel d’internationalisation des services génétiques. Cette analyse éthique est effectuée selon trois perspectives reconnues : le principisme, l’utilitarisme et le déontologisme. L’hétérogénéité des normes régissant les laboratoires génétiques soulève des questions éthiques et démontre la nécessité d’ouvrir un dialogue international afin d’uniformiser les normes d’encadrement des laboratoires génétiques.
Resumo:
Le p-tert-octylphénol est un produit présent dans l’environnement et issu de la dégradation des alkylphénols éthoxylés. Ce composé a la capacité de se lier au récepteur œstrogénique et d’exercer ainsi un léger effet œstrogénique. Les objectifs de cette étude étaient de 1) développer une méthode d'identification de l'octylphénol dans le sang et les tissus à l'aide de la chromatographie en phase gazeuse jumelée à la spectrométrie de masse, 2) caractériser la toxicocinétique sanguine et tissulaire de l’octylphénol chez le rat Sprague-Dawley mâle et femelle et 3) développer un modèle toxicocinétique à base physiologique permettant de décrire la cinétique sanguine et tissulaire de l’octylphénol inchangé. Pour ce faire, des rats mâle et femelle Sprague-Dawley ont reçu des doses uniques d’octylphénol par les voies intraveineuse, orale et sous-cutanée. Deux autres groupes ont reçu des doses répétées d'octylphénol par voie orale pour une durée de 35 jours consécutifs pour les femelles ou 60 jours pour les mâles. Les concentrations sanguines et tissulaires d’octylphénol ont été mesurées à différents moments après administration à partir d’une méthode d’analyse développée dans nos laboratoires dans le cadre de ce projet. Les expériences impliquant des administrations uniques ont montré que les concentrations sanguines et tissulaires d'octylphénol étaient en général plus élevées chez les femelles que chez les mâles. Des expériences réalisées avec des microsomes hépatiques ont confirmé que ces différences étaient vraisemblablement reliées au métabolisme de l'octylphénol. Les expériences impliquant des administrations répétées ont montré qu'il n'y avait pas d'accumulation d'octylphénol dans l'organisme aux doses étudiées. Les résultats obtenus expérimentalement ont servi à développer et valider un modèle toxicocinétique à base physiologique. Ce modèle a permis de simuler adéquatement les concentrations sanguines et tissulaires d'octylphénol suite à des expositions intraveineuses, orales et sous-cutanées. En conclusion, cette étude a fourni des données essentielles sur la toxicocinétique de l'octylphénol. Ces données sont nécessaires pour établir la relation entre la dose externe et la dose interne et vont contribuer à une meilleure évaluation des risques liés à l'octylphénol.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994). Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel.
Resumo:
Le marquage protéique par fluorescence est une méthode de choix permettant d’étudier l’évolution des protéines depuis leur synthèse cellulaire jusqu’à leur dégradation, en plus de rendre possible leur localisation ainsi que la visualisation des interactions entre protéines. De cet intérêt certain ont découlé différentes techniques de marquage, dont celle présentement développée dans le groupe Keillor. Le principe de celle-ci repose sur la réaction entre deux maléimides portés par un fluorogène et une séquence peptidique cible, laquelle contient deux résidus cystéines séparés par une distance appropriée. Suite à cette double addition de thiols du peptide sur les maléimides du fluorogène, la fluorescence latente de ce dernier est régénérée, menant au marquage covalent de la protéine d’intérêt. Afin d’optimiser la spécificité et la sensibilité de cette méthode de marquage, la synthèse de nouveaux fluorogènes et l’étude de l’efficacité de quench de la fluorescence par les maléimides est présentement en cours dans les laboratoires du groupe Keillor.
Resumo:
Depuis la dernière décennie, les outils technologiques et informatiques ont connu un essor considérable dans plusieurs sphères d’activité de la société. L’éducation n’y a pas échappé, et le ministère de l’Éducation, du Loisir et du Sport (MELS) en a d’ailleurs fait une compétence transversale dans le cadre du Programme de formation de l’école québécoise. L’intégration des TIC s’est faite à travers différents moyens, à commencer par les laboratoires informatiques, les ordinateurs à même la salle de classe et, plus récemment, par l’introduction de projets portables où chaque élève et l’enseignant disposent de leur propre ordinateur. Afin d’être mené à terme, ce projet de recherche a été inscrit dans un projet à plus grande échelle, soit celui d’une recherche financée par le Conseil de recherches en sciences humaines du Canada (CRSH), qui a pour objectif d'analyser les obstacles auxquels font face les enseignants dans l'intégration des technologies à l'école. Le présent projet s'est quant à lui attardé plus spécifiquement aux défis technologiques et pédagogiques inhérents aux projets portables. L’étude s'est déroulée en milieu défavorisé, dans une école primaire montréalaise. Une telle intégration demande une planification rigoureuse et un suivi continu afin d’assurer le succès du projet. De plus, il est évident que ce type de projet pose aussi des défis technologiques et pédagogiques particuliers pour les enseignants. À ce sujet, trois catégories de facteurs qui peuvent avoir un impact sur la réussite des projets portables ont été relevées, soit : les facteurs personnels (internes à l’enseignant), les facteurs relatifs au travail (contexte d'enseignement, pratiques pédagogiques, etc.), ainsi que les facteurs relatifs au matériel et à l’infrastructure. À l’intérieur de ce mémoire, différents concepts, dimensions et indicateurs sont donc explicités et mis en relation afin de mieux comprendre les défis technologiques et pédagogiques qui peuvent survenir dans le cadre de la mise en oeuvre de projets portables. Trois enseignantes rattachées à autant de groupes d’élèves ont accepté de participer à une entrevue individuelle et de répondre à un questionnaire. Les échanges par courriel ont aussi été analysés. L'ensemble des données recueillies ont fait l'objet d'analyses qualitatives. Les analyses ont montré que la catégorie de facteurs citée la plus fréquemment était celle des facteurs relatifs au travail avec une forte majorité. Des défis ont toutefois été identifiés pour toutes les dimensions.
Resumo:
D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.
Resumo:
Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.