999 resultados para structure de la rétine
Resumo:
La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.
Resumo:
Notre projet porte sur la relation entre la bande-annonce et le film qu’elle présente. Plus précisément, nous nous intéressons à la manière dont le remontage effectué par la bande-annonce amplifie le film. En premier lieu, nous avons effectué une analyse intertextuelle et esthétique de cinq bandes-annonces contemporaines en cernant le concept spécifique de chacun des exemples et en isolant ce que nous avons appelé des effets d’emphase, c’est-à-dire la mise en valeur de certaines qualités du film par l’entremise du montage du film-annonce. Nous avons ensuite exploré conceptuellement la logique transformante de la bande-annonce en considérant des pistes complémentaires : le montage attractif, la structure ouverte et l’évocation d’une mémoire virtuelle.
Resumo:
Dans un contexte où l’approvisionnement énergétique mondial du 21e siècle est un enjeu majeur, le développement de sources d’énergie renouvelables suscite l’attention croissante de la communauté scientifique et industrielle. L’énergie solaire est définitivement l’une des meilleures alternatives aux combustibles fossiles en tant que source d’énergie du monde de demain. Ce mémoire traite donc du développement de nouveaux matériaux organométalliques pour des applications de photorécoltage d’énergie en photovoltaïque et en production d’hydrogène. Le premier chapitre présente la synthèse assistée par microondes de quatre nouveaux complexes de Co(II), Ni(II), Cu(II) et Zn(II) basés sur le ligand tétra-p-méthoxyphényl-azadipyrrométhène (ADPM) avec des rendements variant de 89% à quantitatif. Ces complexes sont mis en relation avec d’autres complexes homoleptiques connus portant le tétraphényl-ADPM comme ligand ainsi qu’avec leurs chélates de BF2+ pour une meilleure compréhension des tendances engendrées par la substitution de l’agent coordonnant et/ou des substituants p-méthoxy. Pour ce faire, le comportement électrochimique et photophysique est présenté. De façon générale, la présence des quatre groupements p-méthoxy semble rendre les dérivés de cet ADPM plus susceptibles à la dégradation électrochimique en conditions d’oxydation et induire un déplacement bathochromique des propriétés optiques d’absorption et d’émission. Les structures rayons X du ligand tétra-p-méthoxyphényl-ADPM et de son complexe homoleptique de Co(II) sont aussi discutées. Cette étude a été effectuée dans l’espoir de fournir des informations utiles sur la stabilité des ADPM aux chercheurs du domaine photovoltaïque en quête de nouveaux chromophores dans le proche infrarouge (NIR). Le deuxième chapitre présente quant à lui les propriétés de senseur envers les anions F-, OAc- et H2PO4- de deux nouveaux complexes neutres de Re(I) de type mono- et dinucléaire basés sur une phénanthroline substituée en position 5 contenant un récepteur thio-urée. Ces composés ont été obtenus dans des rendements de 81% et 60%, respectivement. L’effet de la formation de ponts hydrogène lors de l’ajout d’anions versus la déprotonation du récepteur a été évalué par des titrations UV/Vis et RMN 1H et semble indiquer que la formation de la base conjuguée du récepteur est favorisée pour ce type de système. De plus, la structure rayons X d’un des précurseurs est présentée et permet une discussion sur la chiralité des complexes mono- et dinucléaire obtenus. L’obtention d’un complexe bimétallique par autoassemblage ouvre la voie à la préparation d’antennes moléculaires pour des systèmes de photosynthèse artificielle.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La version intégrale de ce mémoire [ou de cette thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les accouchements prématurés constituent un problème médical majeur en constante augmentation et ce, malgré tous les efforts mis en œuvre afin de contrer le déclenchement des contractions avant terme. Cette thèse relate du ''design'' rationnel d'un nouvel agent thérapeutique (i.e., tocolytique) qui serait capable de 1) arrêter les contractions, et 2) prolonger la gestation. Pour ce faire, une nouvelle cible, la prostaglandine F2α et son récepteur ont été sélectionnés et le peptidomimétisme a été choisi afin de résoudre cette problématique. L'introduction contient un historique rapide de la conception à la synthèse (''drug design'') du peptide parent, le PDC113, premier peptide a avoir démontré des aptitudes tocolytiques suffisantes pour faire du peptidomimétisme. La deuxième partie de l'introduction présente les concepts du peptidomimétisme appliqués au PDC113 qui ont permis d'accéder au PDC113.824, inhibiteur allostérique du récepteur de la prostaglandine F2α, et explique comment ce mime nous a permis d'élucider les mécanismes de signalisation intracellulaire impliqués dans la contraction musculaire lisse. Cette thèse présente la conception, la synthèse et l'étude structure-activité de mimes de repliement de tour β au sein du mime peptidique original (PDC113.824) dans lequel nous avons remplacé l'azabicycloalkane central (l'indolizidin-2-one) par une série d'autres azabicycloalcanes connus et des acides aza-aminés dont nous avons élaboré la synthèse. Dans un premier temps, une nouvelle stratégie de synthèse en solution de l'aza-glycyl-proline à partir de la diphényle hydrazone et du chloroformate de p-nitrophényle a été réalisée. Cette stratégie a permis d'éliminer les réactions secondaires de cyclisation intramoléculaires communément obtenues lors de l'introduction d'acides aza-aminés avec les protections traditionnelles de type carbamate en présence de phosgène, mais aussi de faciliter l'accès en une étape à des dérivés peptidiques du type aza-glycyle. L'élongation de l'aza-glycyl-proline en solution nous a permis d'accéder à un nouveau mime tetrapeptidique du Smac, un activateur potentiel de l'apoptose au sein de cellules cancéreuses. Par la suite, nous avons développé une stratégie de diversification sélective de l'azote α du résidu azaglycine en utilisant différents types d'halogénures d'alkyle en présence de tert-butoxyde de potassium. Afin de valider le protocole d'alkylation de l'aza-dipeptide, différents halogénures d'alkyle ont été testés. Nous avons également démontré l'utilité des aza-dipeptides résultants en tant que ''building block'' afin d'accéder à une variété d'azapeptides. En effet, l'aza-dipeptide a été déprotégée sélectivement soit en N-terminal soit en C-terminal, respectivement. D'autre part, la libération de l'amine de l'ester méthylique de l'aza-alkylglycyl-proline a conduit à une catégorie de composés à potentiel thérapeutique, les azadicétopipérazines (aza-DKP) par cyclisation intramoléculaire. Enfin, notre intérêt quant au développement d'un nouvel agent tocolytique nous a amené à développer une nouvelle voie de synthèse en solution du PDC113.824 permettant ainsi d'élucider les voies de signalisation intracellulaires du récepteur de la prostaglandine F2α. Afin de valider l'importance de la stéréochimie et d'étudier la relation structure/ activité du mime, nous avons remplacé l'indolizidin-2-one (I2aa) centrale du PDC113.824 par une série d'autres azabicycloalcanes et azadipeptides. Les azabicycloalcanes D-I2aa, quinolizidinone, et indolizidin-9-one ont été synthétisés et incorporés au sein du dit peptide ne donnant aucune activité ni in vitro ni ex vivo, validant ainsi l'importance du tour β de type II' pour le maintien de l'activité biologique du PDC113.824. Finalement, l'insertion d'une série de dérivés aza(alkyl)glycyl-prolyles a mené à de nouveaux inhibiteurs allostériques du récepteur de la PGF2α, l'un contenant l'azaglycine et l'autre, l'azaphénylalanine. Cette thèse a ainsi contribué, grâce à la conception et l'application de nouvelles méthodes de synthèse d'aza-peptides, au développement de nouveaux composés à potentiel thérapeutique afin d'inhiber le travail prématuré.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la profession réglementée en tant que déterminant de la détresse psychologique de la population en emploi au Québec et au Canada. Ceci, dans un contexte où plusieurs ordres professionnels représentant des professions réglementées, s’inquiètent de la santé mentale de leurs membres et de la pression considérable exercée sur eux dans une économie caractérisée par des pénuries de main-d’oeuvre importantes. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les risques différenciés auxquels seraient soumis ces professionnels, comparativement à l’ensemble de la population en emploi, demeurent largement à documenter. La profession réglementée s’associe-t-elle directement à l’expérience de détresse psychologique? Quelles sont les conditions de travail susceptibles de conduire au développement ou à l’aggravation de la détresse psychologique pour ces professions? Dans le but de mieux comprendre le rôle joué par la profession réglementée en matière de détresse psychologique, nous avons eu recours à un modèle théorique multidimensionnel qui postule que les contraintes et les ressources découlent d’un ensemble de structures sociales incluant la profession, le travail, la famille, le réseau social hors-travail et les caractéristiques personnelles. Ce modèle découle des théories micro et macro en sociologie (Alexander et al., 1987; Ritzer, 1996), de l’approche agent-structure(Archer, 1995; Giddens, 1987) ainsi que de la théorie du stress social (Pearlin,1999). Trois hypothèses sont soumises à l’étude à travers ce modèle. La première hypothèse, est à l’effet que la profession réglementée, les conditions de travail, la famille ainsi que le réseau social hors-travail et les caractéristiques individuelles, contribuent directement et conjointement à l’explication du niveau de détresse psychologique. La seconde hypothèse induite par le modèle proposé, pose que le milieu de travail médiatise la relation entre la profession réglementée et le niveau de détresse psychologique. La troisième et dernière hypothèse de recherche, postule enfin que la relation entre le milieu de travail et le niveau de détresse psychologique est modérée par les caractéristiques individuelles ainsi que par la famille et le réseau social hors-travail. Ces hypothèses de recherche furent testées à partir des données longitudinales de l’Enquête nationale sur la santé de la population (ENSP) (cycles 1 à 7). Les résultats obtenus sont présentés sous forme de 3 articles, soumis pour publication, lesquels constituent les chapitres 5 à 7 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutien empirique important et tend à démontrer que la profession réglementée influence directement les chances de vivre de la détresse psychologique au fil du temps, ainsi que le niveau de détresse psychologique lui-même. Les résultats indiquent que les professions réglementées sont soumises à des risques différenciés en termes de conditions de travail susceptibles de susciter de la détresse psychologique. Notons également que la contribution du milieu de travail et de la profession réglementée s’exerce indépendamment des autres dimensions du modèle (famille, réseau social hors-travail, caractéristiques personnelles). Les résultats corroborent l’importance de considérer plusieurs dimensions de la vie d’un individu dans l’étude de la détresse psychologique et mettent à l’ordre du jour l’importance de développer de nouveaux modèles théoriques, mieux adaptés aux contextes de travail au sein desquels oeuvrent les travailleurs du savoir. Cette thèse conclue sur les implications de ces résultats pour la recherche, et sur les retombées qui en découlent pour le marché du travail ainsi que pour le développement futur du système professionnel québécois et canadien.
Resumo:
La régulation transcriptionnelle des gènes est un processus indispensable sans lequel la diversité phénotypique des cellules ainsi que l’adaptation à leur environnement serait inexistant. L’identification des éléments de régulation dans le génome est d’une importance capitale afin de comprendre les mécanismes gouvernant l’expression des gènes spécifiques à un type cellulaire donné. Ainsi, suite au pic de LH, le follicule ovarien entre dans un programme intensif de différentiation cellulaire, orchestré par des modifications majeures du profile transcriptionnel des cellules de granulosa, déclenchant ultimement l’ovulation et la lutéinisation, processus indispensables à la fertilité femelle. L’hypothèse supportée par cette étude stipule qu’une réorganisation de la structure chromatinienne survient aux régions régulatrices d’une panoplie de gènes dans les heures suivant le pic de LH et qu’en isolant et identifiant ces régions, il serait possible de retrouver des éléments essentiels aux processus d’ovulation et de lutéinisation. Ainsi, en utilisant un protocole standard de superovulation chez la souris, les éléments de régulation se modifiant 4h suivant l’administration de hCG ont été isolés et identifiés dans les cellules de granulosa en utilisant la méthode FAIRE (Formaldehyde-Assisted Isolation of Regulatory Elements) combinée à un séquençage haut débit. Cette étude a démontré que suite au stimulus ovulatoire, les cellules de granulosa subissent une reprogrammation majeure des éléments de régulation, qui est corrélée avec une modification drastique de leurs fonctions biologiques. De plus, cette étude a mis en évidence une association majoritaire des éléments de régulation à des régions intergéniques distales et à des introns, indiquant que ces régions ont une importance capitale dans la régulation transcriptionnelle dans les cellules de granulosa. Cette étude a également permis d’identifier une panoplie de régulateurs transcriptionnels reconnus pour être essentiels à la fonction ovarienne, ainsi que leur sites de liaison dans le génome, démontrant que la méthode FAIRE est une méthode assez puissante pour permettre la prédiction d’événements moléculaires précis ayant un sens physiologique réel.
Resumo:
Le site de la carrière du mont Royal (BjFj-97), découvert en 1993 par Yvon Codère et inventorié en 1997 par l’équipe d’Ethnoscop Inc., constitue une énigme archéologique intéressante pour quiconque s’intéresse à la préhistoire de l’île de Montréal et de sa région adjacente. Lors des activités archéologiques de 1997, quelques idées furent émises quant à son affiliation chronologique et sa nature, suggérant une occupation remontant à l’Archaïque terminal (4000 à 3000 AA) orientée vers l’extraction et la transformation de la cornéenne, une pierre métamorphique résultant de la transformation du substrat rocheux en place suite à des intrusions magmatiques lors du Crétacé qui ont créé les Montérégiennes. Le matériel, comprenant plus de 10 000 déchets de taille et un peu plus de 70 artéfacts divers, ne fît pas l’objet d’analyses poussées hormis la datation approximative du site par un examen sommaire des pointes de projectile. Ce mémoire reprend les données de 1997 et apporte une perspective nouvelle au site en décrivant morphologiquement et technologiquement le débitage de la pierre de façon à comprendre la chaîne opératoire de la cornéenne, une matière peu étudiée, mais fort commune au Québec méridional, appréhender les possibilités de la matière et aborder les questions de datation. L’ensemble du matériel lithique fît l’objet d’une analyse lithique poussée axée sur le débitage et les produits finis et propose la prépondérance de la taille bifaciale, ponctuée par un débitage sur éclat conséquent. L’ensemble des étapes de la chaîne opératoire est présent sur le site de la carrière du mont Royal. La cornéenne est une matière difficile à tailler en raison de son imprévisibilité, liée à la structure même de la matière, menant à un fort taux d’échecs lors de l’élaboration des outils. La datation de l’occupation principale du site pointe vers l’Archaïque terminal, mais le caractère équivoque des diverses classes d’objets rend difficile sa définition absolue, faute d’objets parfaitement diagnostiques. Le site BjFj-97 ressemble grandement à un site homologue en Nouvelle-Angleterre où la cornéenne fût travaillée suivant le même schéma opératoire, suggérant un apparentement culturel possible. La cornéenne abonde et domine dans les assemblages archéologiques de la région montréalaise, substituant ainsi des matières de meilleure qualité absentes régionalement. Leurs correspondances chronologiques transcendent celles établies lors de l’analyse du matériel de la carrière et montrent un étalement chronologiquement plus étendu, de l’Archaïque laurentien au Sylvicole supérieur. La cornéenne se retrouve habituellement sous forme d’outils bifaciaux fonctionnels (bifaces, couteaux et pointes de projectile) de piètre facture et d’outils sur éclats (grattoirs et racloirs) rudimentaires, suggérant une signification strictement utilitaire, le propre des matières de basse qualité. Les modes d’extraction de la cornéenne restent inconnus sur le mont Royal. Le mont Royal est plus qu’un vulgaire point défensif, il constitue la base de la subsistance des populations préhistoriques de jadis où se trouvent les matériaux nécessaires à la taille d’outils de prédation liés à un mode de vie mobile où domine la chasse.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La chromatine est un système de compaction de l’ADN jouant un rôle important dans la régulation de l’expression génique. L’acétylation de la chromatine provoque un relâchement de sa structure, facilitant le recrutement de facteurs de transcription. Inversement, des complexes histones déacétylases favorisent une structure compacte, réprimant l’expression de gènes. Un complexe HDAC, Rpd3S, est recruté par l’ARN polymérase II phosphorylée sur les régions codantes transcrites. Cette activité HDAC est stimulée par la déposition de la marque H3K36me générée par l’histone méthyltransférase Set2. Par approche génomique, en utilisant comme organisme modèle Saccharomyces cerevisiae, j’ai optimisé la méthode de ChIP-chip puis démontré que les sous unités Hos2 et Set3 d’un autre complexe HDAC, Set3C, étaient recrutées sur des régions codantes de gènes transcrits. De plus, Set3C est connu pour être recruté soit par H3K4me ou par la Pol II. La suite du projet portera sur le recrutement de Set3C qui semble similaire à Rpd3S.
Resumo:
"La publication simultanée est un paradigme nouveau de diffusion dans Internet. Au lieu de privilégier l'aspect visuel d'une page, la famille de technologies RSS permet de communiquer la structure d'un site, en vue d'une navigation plus systématique et rapide. À l'instar du foisonnement qui caractérisait la bulle Internet du tournant du millénaire, plusieurs saveurs de cette technologie furent développées en parallèle par différents groupes. L'acronyme RSS reflète cette compétition et désigne, successivement, Rich Site Summary (RSS 0.91); RDF Site Summary (RSS 0.9 and 1.0) ainsi que Really Simple Syndication (RSS 2.0). Par ailleurs, Atom 1.0 représente un format RSS entériné par les organes de standardisation d'Internet. Sont présentés les mécanismes de publication et de compilation de fils RSS."