539 resultados para Buts de succès
Resumo:
Il est généralement admis que l’éducation constitue une des stratégies les plus efficaces pour lutter contre le VIH/SIDA et diminuer sa transmission (Gallant et Matika-Tyndale, 2004). À cet effet, plusieurs pays d’Afrique subsaharienne ont inclus des programmes d’éducation au VIH/SIDA dans leur curriculum scolaire afin de contrer l’épidémie (ADEA, 2007). Cependant, l’efficacité de ces programmes éducatifs demeure incertaine. Par exemple, les objectifs des programmes éducatifs, tels que la transmission de connaissances relatives au VIH/SIDA, ou la diminution des comportements sexuels risqués, ne sont pas toujours atteints (Matika-Tyndale, 2009; Oshi, D., Nakalema, S. et Oshi, L, 2005). Le succès d’un programme de lutte et de prévention en milieu scolaire peut être lié aux contenus d’enseignement traités en classe par les enseignants (Ahmed et al., 2009). Les contenus traités dépendent en partie des représentations et des connaissances des enseignants par rapport au(x) sujet(s) qu'ils enseignent et pour des sujets aussi délicats que le VIH/SIDA et la sexualité, cette relation est particulièrement importante. Par exemple, en Afrique du Sud, malgré l’existence d’une politique nationale sur le VIH et l’inclusion des sujets relatifs au VIH/SIDA dans le curriculum scolaire, la mise en oeuvre du programme de lutte et de prévention peut être compromise par la résistance des enseignants à parler de certains sujets controversés (Ahmed et al. 2009; Mathews et al., 2006). Notre étude, menée dans la région de Cape Town en Afrique du Sud, visait à mieux comprendre les relations entre les caractéristiques socioprofessionnelles des enseignants, leurs connaissances, leurs représentations à l’égard de l’éducation relative au VIH/SIDA et les contenus d’enseignement abordés dans le cours life-orientation dédié à l’éducation relative au VIH/SIDA. Au total, 71 enseignants du cours life-orientation provenant de 18 écoles secondaires ont participé à cette étude. Les enseignants ont rempli un questionnaire portant sur leurs caractéristiques socioprofessionnelles (âge, genre, expérience d’enseignement, niveau enseigné et expérience personnelle avec le VIH/SIDA), leurs connaissances, différentes composantes de leurs représentations (attitudes, norme sociale perçue et contrôle comportemental perçu) et les contenus d’enseignement qu’ils abordent en classe. iv Les résultats des analyses des données ainsi recueillies montrent que la norme sociale perçue est la seule composante des représentations reliée aux contenus d’enseignement abordés en classe par l’enseignant. Les attitudes des enseignants envers l’éducation relative au VIH/SIDA sont plutôt favorables, mais plusieurs d’entre eux manifestent des lacunes par rapport à leurs connaissances sur les modes de transmission et de prévention du VIH/SIDA. Par ailleurs, plusieurs croient que le manque de formation et le manque de matériel sont des obstacles à leur enseignement. Les expériences personnelles avec le VIH/SIDA sont associées à des attitudes plus positives chez les enseignants et l’expérience d’enseignement du cours life-orientation est reliée aux connaissances relatives au VIH/SIDA et au contrôle comportemental perçu de l’enseignant. Nos résultats suggèrent également que certains contenus d’enseignement spécifiques de l’éducation relative au VIH/SIDA, tel que l’utilisation des condoms, semblent être particulièrement controversés et source de malaise pour les enseignants. Nos résultats donnent également des pistes de recherches futures s’intéressant à l’amélioration de l’enseignement relatif au VIH/SIDA, notamment au sujet du besoin de formation et de matériel pédagogique supplémentaire, ainsi qu’au sujet de l’influence des membres de la société sur l’enseignement effectué en classe. Notre recherche montre également l’importance de distinguer, en recherche, les différents contenus d’enseignement, plutôt que de considérer de façon globale l’éducation relative au VIH/SIDA.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.
Resumo:
Contexte: En dépit de la preuve substantielle pour l'efficacité générale de la thérapie cognitivo-comportementale pour le trouble obsessionnel-compulsif (TOC), il existe une controverse à propos de l'amélioration de certains déficits neuropsychologiques dans ce trouble. Objectif: Le but de cette étude est d'évaluer: 1) la corrélation de la gravité du TOC et les résultats des tests neuropsychologiques et 2) l'amélioration clinique et neuropsychologique des patients souffrant de TOC qui ont terminé avec succès leur traitement. Méthode: Cette étude évalue les fonctions neurocognitives et l'état clinique de 27 participants du groupe TOC et 25 participants du groupe témoin. La fonction neurocognitive de chaque participant a été évaluée en utilisant le test de Rey-Osterreich Figure complexe (RCFT), le test de fluidité D-KEFS et l’essai Cardebat-D. Nous avons également, utilisé l'inventaire d'anxiété de Beck (IAB), l’Inventaire de dépression de Beck (IDB) et l'échelle d'obsession-compulsion de Yale-Brown (Y-BOCS) pour vérifier la présence de l'anxiété et de la dépression avec le TOC et la gravité des symptômes chez les patients souffrant de TOC. Résultats: Notre étude conclut qu’il y une différence significative de la fonction de la mémoire selon le score au sous test de copie entre les participants souffrant de TOC et le groupe témoin. De plus, nous avons constaté une différence considérable dans le score de rappel immédiat et différé du RCFT avant et après le traitement dans le groupe de TOC. Conclusion: En résumé, la présente étude a démontré que les patients atteints de TOC ont des troubles cognitifs spécifiques et que la thérapie cognitivo-comportementale serait un traitement qui pourrait améliorer, au moins, certaines dysfonctions neurocognitives.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.), sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Nous proposons une approche qui génère des scénarios de visualisation à partir des descriptions de tâches d'analyse de code. La dérivation de scénario est considérée comme un processus d'optimisation. Dans ce contexte, nous évaluons différentes possibilités d'utilisation d'un outil de visualisation donnée pour effectuer la tâche d'analyse, et sélectionnons le scénario qui nécessite le moins d'effort d'analyste. Notre approche a été appliquée avec succès à diverses tâches d'analyse telles que la détection des défauts de conception.
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
La mise à jour des connaissances par les infirmières et leur engagement dans un processus continu d’apprentissage est garant de soins de qualité à la population (Nesbitt, 2013; OIIQ, 2011b; Raelin, 2008; Wilson et al., 2015). Au Québec depuis 2012, les infirmières doivent être inscrites à un minimum de 20 heures de formation annuellement (OIIQ, 2011a). Les milieux de soins offrent de la formation souvent ponctuelle. Garcia, Meek, et Wilson (2011) soulignent que l’implantation d’activités pérennes de développement professionnel en milieu de travail demeure un défi. La présente étude avait pour but de documenter les caractéristiques, le contexte et les processus d’implantation et de pérennisation d’une activité de développement professionnel par une équipe d’infirmières. Il s’agissait d’un club de lecture dans un centre hospitalier universitaire (CHU) d’une grande métropole québécoise. Fondée sur le modèle de Pettigrew et Whipp (1991) Content, Context, and Process model of strategic change adapté par Stetler, Ritchie, Rycroft-Malone, Schultz, et Charns (2007), la méthode d’étude de cas a été choisie. Des entrevues individuelles (n=7), des focus groups (n=2) et des périodes d’observation (n=2) ont été réalisés afin de décrire les éléments de succès de l’implantation et de la pérennisation de cette activité. Il résulte comme caractéristique qu’une activité où les infirmières sont engagées et actives est une stratégie gagnante. Le contexte, une équipe de gestionnaires qui valorise la pratique clinique et la pratique fondée sur les résultats probants, soutient la pérennité. Une trajectoire avec des retombées concrètes pour la pratique, les soins aux patients et l’identité professionnelle des participantes est l’élément principal du processus qui contribue à ce que l’activité soit pérenne.
Resumo:
Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.
Resumo:
Les approches arthroscopiques et l’anatomie normale des articulations antébrachiocarpienne, carpienne moyenne et tarsocrurale n’ont jamais été décrites spécifiquement chez les bovins. Notre étude avait pour buts de définir les abords chirurgicaux et de décrire l’anatomie arthroscopique de ces trois articulations. Deux carpes et deux tarses issus du cadavre frais d’une vache adulte ont été injectés avec un mélange de latex, puis disséqués afin de déterminer les sites arthroscopiques d’intérêt. Par la suite, l’arthroscopie des articulations antébrachiocarpienne et carpienne moyenne (approche dorsale) et de l’articulation tarsocrurale (approches dorsale et plantaire) a été réalisée sur six cadavres frais de vaches adultes ne présentant ni boiterie ni distension articulaire avant leur euthanasie. Les approches dorsolatérale et dorsomédiale des articulations antébrachiocarpienne et carpienne moyenne ont été réalisées de part et d’autre de l’extenseur radial du carpe. Les structures observées étaient le radius distal, les os radial, intermédiaire, ulnaire, II et III fusionnés et IV du carpe, ainsi que des ligaments palmaires. Les approches dorsolatérale et dorsomédiale de l’articulation tarsocrurale ont été réalisées latéralement au long extenseur des doigts et médialement au troisième péronier respectivement. Les approches plantarolatérale et plantaromédiale ont été réalisées latéralement au fléchisseur latéral des doigts et latéralement au fléchisseur médial des doigts respectivement. Les structures observées étaient le tibia distal, les trochlées proximale et plantaire du talus, le processus coracoïde du calcanéus, l’articulation fibulo-calcanéenne et des ligaments articulaires. Quelle que soit l’articulation, l’approche latérale était préférée à l’approche médiale. L’arthroscopie du carpe et du tarse pourra être proposée dans un contexte hospitalier comme outil diagnostique, thérapeutique et pronostique des maladies articulaires bovines.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
Le succès électoral du Bloc québécois était prévisible. Il s'est également avéré significatif à court terme et aura des implications majeures dans les mois à venir. La première section de ce chapitre explique le caractère prévisible de la performance du Bloc, en montrant que le nouveau parti représentait une part importante et stable de l'électorat québécois. La deuxième partie traite du rôle du Bloc québécois à Ottawa et souligne, en particulier, la proximité idéologique du parti et de son électorat. Enfin, la troisième partie discute des possibilités qui s'offrent au Bloc et au Parti québécois dans la bataille référendaire qui s'amorce, insistant notamment sur les perceptions des électeurs moins décidés. En conclusion, une brève discussion suggère que le Bloc pourrait demeurer un acteur important dans les années à venir, même si les souverainistes perdaient leur référendum.
Resumo:
Ce mémoire propose un regard transdisciplinaire : historique, sociologique et musical sur Harmonium, un groupe culte de folk-rock progressif québécois des années 1970. Y sont étudiées la révolution musicale engendrée par l’arrivée du folk et du rock progressif au Québec ainsi que la mise en récit de l’œuvre et de l’histoire d’Harmonium. Les œuvres du groupe, les sources écrites d’époque (articles de journaux et de revues), l’histoire documentaire et l’histoire et la mémoire publiques y sont confrontées pour analyser les processus narratifs. D’abord, l’essor du groupe est situé dans les transformations de la scène musicale québécoise au cours des années 1960-1970. L’histoire d’Harmonium, entre 1972 et 1978, est ensuite reconstituée au travers des sources d’époque, articles scientifiques et biographies. Par la suite, les caractéristiques musicales des œuvres ainsi que les thèmes, valeurs et messages véhiculés par le groupe sont examinés. L’essor et le succès d’Harmonium sont ainsi réinterprétés au travers du développement de la scène musicale progressive internationale et de la popularisation de la contre-culture. Finalement, en regard de l’ambiguïté politique d’Harmonium dans les sources historiques, la prédominance des réinterprétations néonationalistes de son œuvre et de son histoire sont analysées selon un processus de mise en récit de l’histoire nationale. Il en ressort que la narration prédominante au sein de l’histoire et de la mémoire publiques semble assimiler le destin des artistes québécois à celui du peuple et de la nation. Dans le cas d’Harmonium, ce récit qui s’appuie principalement sur le nationalisme de Serge Fiori, la figure de proue du groupe, contribue à l’occultation du projet artistique spirituel, progressif, contre-culturel et « authentique » du groupe.