1000 resultados para Analyse de la démarche basée sur la vidéo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La biologie moléculaire et, plus spécifiquement, la régulation de l’expression génique ont été révolutionnées par la découverte des microARN (miARN). Ces petits ARN d’une vingtaine de nucléotides sont impliqués dans la majorité des processus cellulaires et leur expression est dérégulée dans plusieurs maladies, comme le cancer. Un miARN reconnaît ses cibles principalement par son noyau, ce qui lui permet de réguler simultanément la traduction de centaines d’ARN messagers. Nos travaux ont montré l’existence d’une boucle de rétro-activation négative, entre deux miARN du polycistron miR-17-92 et trois facteurs de transcription de la famille E2F. E2F1, 2 et 3 induisent la transcription de miR-20 et miR-17 qui par la suite inhibent leur traduction. Nos résultats suggèrent l’implication de cette boucle dans la résistance à l’apoptose induite par E2F1 dans les cellules du cancer de la prostate, ce qui expliquerait en partie le potentiel oncogénique du polycistron miR-17-92. L’étude de ce motif de régulation nous a donc permis de réaliser le potentiel incroyable qu’ont les miARN à inhiber la traduction de plusieurs gènes. Basé sur les règles de reconnaissance des miARN, nous avons développé et validé MultiTar. Cet outil bioinformatique permet de trouver la séquence d’un miARN artificiel ayant le potentiel d’inhiber la traduction de gènes d’intérêts choisis par l’utilisateur. Afin de valider MultiTar, nous avons généré des multitargets pouvant inhiber l’expression des trois E2F, ce qui nous a permis de comparer leur efficacité à celle de miR-20. Nos miARN artificiels ont la capacité d’inhiber la traduction des E2F et de neutraliser leur fonction redondante de la progression du cycle cellulaire de façon similaire ou supérieur à miR-20. La fonctionnalité de notre programme, ouvre la voie à une stratégie flexible pouvant cibler le caractère multigénique de différents processus cellulaires ou maladies complexes, tel que le cancer. L’utilisation de miARN artificiels pourrait donc représenter une alternative intéressante aux stratégies déjà existantes, qui sont limitées à inhiber des cibles uniques. En plus d’élucider un réseau de régulation complexe impliquant les miARN, nous avons pu tirer profit de leur potentiel d’inhibition par la conception de miARN artificiels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les méthodes de vaccination actuelles contre l’influenza, axées sur la réponse à anticorps dirigée contre des antigènes hautement variables, nécessitent la production d’un vaccin pour chaque nouvelle souche. Le défi est maintenant de stimuler simultanément une réponse cellulaire pan-spécifique ciblant des antigènes conservés du virus, tel que la protéine de la matrice (M1) ou la nucléoprotéine (NP). Or, la présentation antigénique de ces protéines est peu définie chez l’humain. Nous avons analysé la présentation endogène par les complexes majeurs d’histocompatibilité de classes (CMH)-I et -II de M1 et de NP. Ainsi, les protéines M1 et NP ont été exprimées dans des cellules présentatrices d’antigènes (CPAs). Notamment, des épitopes de M1 et de NP endogènes peuvent être présentées par CMH-I et -II, ce qui résulte en une activation respectivement de lymphocytes T CD8+ et CD4+ précédemment isolés. Étant donné l’importance des lymphocytes T CD4+ dans la réponse cellulaire, nous avons cloné M1 ou NP en fusion avec des séquences de la protéine gp100 permettant la mobilisation vers les compartiments du CMH-II sans affecter la présentation par CMH-I. Des CPAs exprimant de façon endogène ces constructions modifiées ou sauvages ont ensuite été utilisées pour stimuler in vitro des lymphocytes T humains dont la qualité a été évaluée selon la production de cytokines et la présence de molécules de surface (ELISA ou marquage de cytokines intracellulaire). Nous avons observé une expansion de lymphocytes T CD8+ et CD4+ effecteurs spécifiques sécrétant diverses cytokines pro-inflammatoires (IFN-γ, TNF, MIP-1β) dans des proportions comparables avec une présentation par CMH-II basale ou améliorée. Cette qualité indépendante du niveau de présentation endogène par CMH-II de M1 et de NP des lymphocytes T CD4+ et CD8+ suggère que cette présentation est suffisante à court terme. En outre, la présentation endogène de M1 et NP a permis de stimuler des lymphocytes T spécifiques à des épitopes conservés du virus, tel qu’identifié à l’aide une méthode d’identification originale basée sur des segments d’ARNm, « mRNA PCR-based epitope chase (mPEC) ». Ensemble, ces nouvelles connaissances sur la présentation antigénique de M1 et de NP pourraient servir à établir de nouvelles stratégies vaccinales pan-spécifiques contre l’influenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire est consacré à la production culturelle en contexte de convergence au Québec. Dans le premier chapitre, je démontre comment différents éléments en sont venus à façonner la production culturelle contemporaine québécoise et comment la convergence médiatique est susceptible d’orienter la production et la parution de textes culturels. J'y expose aussi les bases d'une approche de la circulation par le biais de laquelle je propose de construire théoriquement mon objet d'étude. Le deuxième chapitre est consacré à la démarche méthodologique qui a présidé ma recherche. J'y présente d'abord le terrain de l'analyse, soit la téléréalité Occupation Double, en tant que phénomène intertextuel dont j'étudie les diverses configurations sur et à travers les principales plates-formes de Quebecor. Je poursuis en décrivant la constitution du corpus de textes à l'étude ainsi que les principaux paramètres d'analyse inspirés de la théorie de la circulation et de la méthode intertextuelle privilégiée. Le troisième chapitre rend compte des résultats d’analyse, présentant deux circuits médiatiques m’ayant permis d’observer les possibilités d’émergence de personnages construits autour des concurrents de la téléréalité Occupation Double. J’initie par la suite une piste de réflexion sur la création de zones d’intimité performées par ces mêmes personnages. En conclusion, je fais un retour sur l’évolution de mes recherches et constats et propose une réflexion sur l’intimité performée et les genres possiblement pressentis pour l’endosser.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

SOMMAIRE Les élèves du primaire éprouvent de la difficulté à transférer, dans leurs productions écrites, les notions d’orthographe grammaticale enseignées en classe de français. La présente recherche souhaite vérifier si l’enseignement de l’identification des classes de mots par la méthode inductive jumelée aux approches spécifique ou intégrée permettrait aux élèves de repérer plus efficacement les déterminants, les noms, les adjectifs et les verbes dans leurs propres productions écrites et, par la suite, d’effectuer correctement les accords grammaticaux. La cueillette de données s’effectue à l’aide de six productions écrites rédigées en autant de semaines par les élèves de trois groupes-classes de la 2e année du 2e cycle du primaire. Les résultats des groupes expérimentaux (un expérimentant l’approche intégrée et l’autre, l’approche spécifique) sont comparés à ceux obtenus par un groupe de contrôle. À la fin de l’expérimentation, les résultats se sont maintenus, entre le prétest et le post-test, en ce qui concerne l’identification des déterminants, des noms et des adjectifs pour les trois groupes. Ils ont cependant diminué pour ce qui est de l’identification des verbes. En ce qui concerne les accords grammaticaux, tous les groupes ont amélioré leurs accords déterminant-nom, le groupe contrôle a présenté de meilleurs résultats pour l’accord de l’adjectif et seul le groupe expérimentant l’approche spécifique a réussi à maintenir ses résultats concernant l’accord du verbe, alors que les deux autres groupes ont obtenu des résultats plus faibles à la fin de l’expérimentation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe dedecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.