859 resultados para Task and ego orientation
Resumo:
The relationships between vine water status, soil texture, and vine size were observed in four Niagara, Ontario Pinot noir vineyards in 2008 and 2009. The vineyards were divided into water status zones using geographic information systems (GIS) software to map the seasonal mean midday leaf water potential (,P), and dormant pruning shoot weights following the 2008 season. Fruit was harvested from all sentinel vines, bulked by water status zones and made into wine. Sensory analysis included a multidimensional sorting (MDS) task and descriptive analysis (DA) of the 2008 wines. Airborne multispectral images, with a spatial resolution of 38 cm, were captured four times in 2008 and three times in 2009, with the final flights around veraison. A semi-automatic process was developed to extract NDVI from the images, and a masking procedure was identified to create a vine-only NDVI image. 2008 and 2009 were cooler and wetter than mean years, and the range of water status zones was narrow. Yield per vine, vine size, anthocyanins and phenols were the least consistent variables. Divided by water status or vine size, there were no variables with differences between zones in all four vineyards in either year. Wines were not different between water status zones in any chemical analysis, and HPLC revealed that there were no differences in individual anthocyanins or phenolic compounds between water status zones within the vineyard sites. There were some notable correlations between vineyard and grape composition variables, and spatial trends were observed to be qualitatively related for many of the variables. The MDS task revealed that wines from each vineyard were more affected by random fermentation effects than water status effects. This was confirmed by the DA; there were no differences between wines from the water status zones within vineyard sites for any attribute. Remotely sensed NDVI (normalized difference vegetation index) correlated reasonably well with a number of grape composition variables, as well as soil type. Resampling to a lower spatial resolution did not appreciably affect the strength of correlations, and corresponded to the information contained in the masked images, while maintaining the range of values of NDVI. This study showed that in cool climates, there is the potential for using precision viticulture techniques to understand the variability in vineyards, but the variable weather presents a challenge for understanding the driving forces of that variability.
Resumo:
DNA assembly is among the most fundamental and difficult problems in bioinformatics. Near optimal assembly solutions are available for bacterial and small genomes, however assembling large and complex genomes especially the human genome using Next-Generation-Sequencing (NGS) technologies is shown to be very difficult because of the highly repetitive and complex nature of the human genome, short read lengths, uneven data coverage and tools that are not specifically built for human genomes. Moreover, many algorithms are not even scalable to human genome datasets containing hundreds of millions of short reads. The DNA assembly problem is usually divided into several subproblems including DNA data error detection and correction, contig creation, scaffolding and contigs orientation; each can be seen as a distinct research area. This thesis specifically focuses on creating contigs from the short reads and combining them with outputs from other tools in order to obtain better results. Three different assemblers including SOAPdenovo [Li09], Velvet [ZB08] and Meraculous [CHS+11] are selected for comparative purposes in this thesis. Obtained results show that this thesis’ work produces comparable results to other assemblers and combining our contigs to outputs from other tools, produces the best results outperforming all other investigated assemblers.
Resumo:
The capacity for all living cells to sense and interact with their environment is a necessity for life. In highly evolved, eukaryotic species, like humans, signalling mechanisms are necessary to regulate the function and survival of all cells in the organism. Synchronizing systemic signalling systems at the cellular, organ and whole-organism level is a formidable task, and for most species requires a large number of signalling molecules and their receptors. One of the major types of signalling molecules used throughout the animal kingdom are modulatory substances (e.x. hormones and peptides). Modulators can act as chemical transmitters, facilitating communication at chemical synapses. There are hundreds of circulating modulators within the mammalian system, but the reason for so many remains a mystery. Recent work with the fruit fly, Drosophila melanogaster demonstrated the capacity for peptides to modulate synaptic transmission in a neuron-specific manner, suggesting that peptides are not simply redundant, but rather may have highly specific roles. Thus, the diversity of peptides may reflect cell-specific functions. The main objective of my doctoral thesis was to examine the extent to which neuromodulator substances and their receptors modulate synaptic transmission at a cell-specific level using D. melanogaster. Using three different modulatory substances, i) octopamine - a biogenic amine released from motor neuron terminals, ii) DPKQDFMRFa - a neuropeptide secreted into circulation, and iii) Proctolin - a pentapeptide released both from motor neuron terminals and into circulation, I was able to investigate not only the capacity of these various substances to work in a cell-selective manner, but also examine the different mechanisms of action and how modulatory substances work in concert to execute systemic functionality . The results support the idea that modulatory substances act in a circuit-selective manner in the central nervous system and in the periphery in order to coordinate and synchronize physiologically and behaviourally relevant outputs. The findings contribute as to why the nervous system encodes so many modulatory substances.
Resumo:
Activity of the medial frontal cortex (MFC) has been implicated in attention regulation and performance monitoring. The MFC is thought to generate several event-related potential (ERPs) components, known as medial frontal negativities (MFNs), that are elicited when a behavioural response becomes difficult to control (e.g., following an error or shifting from a frequently executed response). The functional significance of MFNs has traditionally been interpreted in the context of the paradigm used to elicit a specific response, such as errors. In a series of studies, we consider the functional similarity of multiple MFC brain responses by designing novel performance monitoring tasks and exploiting advanced methods for electroencephalography (EEG) signal processing and robust estimation statistics for hypothesis testing. In study 1, we designed a response cueing task and used Independent Component Analysis (ICA) to show that the latent factors describing a MFN to stimuli that cued the potential need to inhibit a response on upcoming trials also accounted for medial frontal brain responses that occurred when individuals made a mistake or inhibited an incorrect response. It was also found that increases in theta occurred to each of these task events, and that the effects were evident at the group level and in single cases. In study 2, we replicated our method of classifying MFC activity to cues in our response task and showed again, using additional tasks, that error commission, response inhibition, and, to a lesser extent, the processing of performance feedback all elicited similar changes across MFNs and theta power. In the final study, we converted our response cueing paradigm into a saccade cueing task in order to examine the oscillatory dynamics of response preparation. We found that, compared to easy pro-saccades, successfully preparing a difficult anti-saccadic response was characterized by an increase in MFC theta and the suppression of posterior alpha power prior to executing the eye movement. These findings align with a large body of literature on performance monitoring and ERPs, and indicate that MFNs, along with their signature in theta power, reflects the general process of controlling attention and adapting behaviour without the need to induce error commission, the inhibition of responses, or the presentation of negative feedback.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
Le contexte actuel de la profession enseignante au Québec est caractérisé par l’évolution manifeste qu’a connue l’enseignement depuis les dernières décennies, évolution marquée par une complexification de la tâche, accentuée par divers phénomènes sociaux. En dépit de l’épuisement professionnel et de l’attrition de certains, plusieurs enseignantes et enseignants relèvent le défi de l’enseignement en milieux difficiles et réussissent à se développer professionnellement. Ce phénomène s’apparente au concept de résilience. Parmi les facteurs personnels de protection qui favorisent la résilience, les habiletés et compétences professionnelles ont déjà été mises en évidence chez le personnel scolaire résilient. De son côté, la littérature sur le développement des compétences professionnelles valorise l’importance de la réflexion sur la pratique comme vecteur privilégié de ce processus. Dans cette perspective, la question de recherche posée est à savoir si des relations peuvent être établies entre la résilience et la réflexion sur la pratique en enseignement. Ainsi, suivant la conceptualisation de G.E. Richardson (2002), nous avons tenté d’explorer les relations entre la résilience et la réflexion du personnel enseignant, telle que conceptualisée par Korthagen (1985, 2004), à l’aide de stratégies mixtes de collecte et d’analyse des données. Nous avons d’abord opérationnalisé les deux concepts par des indices provenant de plusieurs instruments: questionnaire sur la qualité de vie au travail, journal d’autoévaluation du stress, entretien semi-dirigé. Vingt-et-une enseignantes et deux enseignants de sept écoles primaires parmi les plus défavorisées de Montréal ont participé à l’étude. Près de 7000 unités de sens ont été codées dans les entretiens. Des analyses quantitatives et qualitatives ont permis de décrire l’adversité (stress) vécue par les participants, leur qualité de vie au travail et leurs compétences professionnelles (adaptation positive), de même que leurs facteurs de risque et de protection, individuels et environnementaux. Cette démarche a permis de dégager quatre profils généraux de résilience parmi les 23 participants: très résilient (2), résilient (9), peu résilient (8) et non résilient (2). Parallèlement, le processus et les contenus de la réflexion des participants ont été analysés à partir des modèles théoriques choisis. On remarque que la plupart des participants se centrent davantage sur la description des situations problématiques, plutôt que sur la recherche de solutions, et sur les contenus environnementaux, plutôt que personnels. L’analyse verticale de quatre cas représentatifs des profils de résilience a permis des comparaisons approfondies au plan de la réflexion. Ce sont les enseignantes situées aux extrêmes du continuum de résilience (la plus résiliente et la moins résiliente de l’échantillon) qui ont montré les distinctions les plus nettes. Notamment, il semblerait qu’une faible résilience soit liée à une centration accrue sur les problèmes plutôt que sur les solutions, ainsi que sur les contenus réflexifs environnementaux plutôt que personnels, et inversement. Enfin, malgré certaines limites méthodologiques et conceptuelles, cette étude révèle l’existence de liens empiriques entre la réflexion et la résilience d’enseignantes et d’enseignants œuvrant en milieux défavorisés. Elle ouvre également la voie à des pistes pour développer la résilience du personnel scolaire et propose des idées de recherches prospectives.
Resumo:
Le degré de rétention de l’arboricolisme dans le répertoire locomoteur des hominines fossiles du Pliocène est toujours matière à débat, les études ayant principalement porté sur la courbure des phalanges et la proportion des membres. Vu la récente découverte de DIK-1-1 (A. afarensis) et de la scapula qui lui est associée, l’étude de cet os d’un point de vue fonctionnel est intéressante, puisqu’il est directement impliqué dans la locomotion de presque tous les hominoïdes. Le but de cette étude est de tenter d’établir un lien entre l’orientation supéro-inférieure (SI) et antéro-postérieure (AP) de la cavité glénoïde de la scapula et les comportements locomoteurs chez les grands singes et l’humain moderne. Des analyses comparatives sur les adultes ont été réalisées pour 1) voir s’il existe des différences dans la morphologie étudiée entre les espèces et 2) voir si ces différences peuvent être expliquées par la taille corporelle. Des analyses ontogéniques ont aussi été réalisées pour voir si un accroissement de la taille corporelle pendant le développement et les changements locomoteurs qui y sont associés correspondent à un changement d’orientation de la cavité glénoïde. Les résultats montrent que les humains ont une cavité glénoïde qui est orientée moins supérieurement que les grands singes, mais que Pongo, bien qu’étant le plus arboricole, n’a pas l’orientation la plus supérieure. Les « knuckle-walkers » (Pan et Gorilla) se distinguent des autres hominoïdes avec une orientation de la surface glénoïde relative à l’épine plus inférieure. La taille corporelle ne semble pas influencer la morphologie étudiée, sauf parfois chez le gorille. Seuls l’humain et les mâles Pongo montrent un changement ontogénique dans l’orientation de la cavité glénoïde relativement à l’épine. Sur la base de ces résultats, l’orientation de la cavité glénoïde semble refléter partiellement la fonction du membre supérieur dans la locomotion, mais des recherches plus poussées sont nécessaires. Mots-Clés : Scapula, cavité glénoïde, grands singes, humains, locomotion, arboricolisme.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Le vieillissement normal est associé à une réorganisation cérébrale qui peut être influencée par plusieurs facteurs. Des théories comme la réserve cognitive de Stern (2002) tentent d’expliquer les effets de ces différents facteurs. Certains, le niveau de scolarité par exemple, sont encore mal connus. Pourtant, le niveau de scolarité est connu pour avoir un impact sur les performances cognitives tout au long de la vie. Le but de ce mémoire est d’étudier les effets du niveau de scolarité sur l’oxygénation cérébrale de personnes âgées en santé lors d’une tâche d’évocation lexicale orthographique et sémantique. Chaque tâche est divisée selon un critère « plus productive » et « moins productive ». Les âgés faiblement scolarisés produisent moins de mots que les âgés fortement scolarisés. De plus, la différence de mots produits entre le critère plus productif et moins productif est plus grande pour la tâche sémantique que pour la tâche orthographique. Du point de vue hémodynamique, les deux groupes ont des activations semblables, contredisant le phénomène HAROLD. De plus, les participants peu scolarisés tendent à activer de façon plus importante l’hémisphère gauche, peu importe la tâche ou la condition. Par contre, les activations varient selon la tâche et la condition dans le cas du groupe fortement scolarisé.
Resumo:
L’objectif principal de cette thèse était de quantifier et comparer l’effort requis pour reconnaître la parole dans le bruit chez les jeunes adultes et les personnes aînées ayant une audition normale et une acuité visuelle normale (avec ou sans lentille de correction de la vue). L’effort associé à la perception de la parole est lié aux ressources attentionnelles et cognitives requises pour comprendre la parole. La première étude (Expérience 1) avait pour but d’évaluer l’effort associé à la reconnaissance auditive de la parole (entendre un locuteur), tandis que la deuxième étude (Expérience 2) avait comme but d’évaluer l’effort associé à la reconnaissance auditivo-visuelle de la parole (entendre et voir le visage d’un locuteur). L’effort fut mesuré de deux façons différentes. D’abord par une approche comportementale faisant appel à un paradigme expérimental nommé double tâche. Il s’agissait d’une tâche de reconnaissance de mot jumelée à une tâche de reconnaissance de patrons vibro-tactiles. De plus, l’effort fut quantifié à l’aide d’un questionnaire demandant aux participants de coter l’effort associé aux tâches comportementales. Les deux mesures d’effort furent utilisées dans deux conditions expérimentales différentes : 1) niveau équivalent – c'est-à-dire lorsque le niveau du bruit masquant la parole était le même pour tous les participants et, 2) performance équivalente – c'est-à-dire lorsque le niveau du bruit fut ajusté afin que les performances à la tâche de reconnaissance de mots soient identiques pour les deux groupes de participant. Les niveaux de performance obtenus pour la tâche vibro-tactile ont révélé que les personnes aînées fournissent plus d’effort que les jeunes adultes pour les deux conditions expérimentales, et ce, quelle que soit la modalité perceptuelle dans laquelle les stimuli de la parole sont présentés (c.-à.-d., auditive seulement ou auditivo-visuelle). Globalement, le ‘coût’ associé aux performances de la tâche vibro-tactile était au plus élevé pour les personnes aînées lorsque la parole était présentée en modalité auditivo-visuelle. Alors que les indices visuels peuvent améliorer la reconnaissance auditivo-visuelle de la parole, nos résultats suggèrent qu’ils peuvent aussi créer une charge additionnelle sur les ressources utilisées pour traiter l’information. Cette charge additionnelle a des conséquences néfastes sur les performances aux tâches de reconnaissance de mots et de patrons vibro-tactiles lorsque celles-ci sont effectuées sous des conditions de double tâche. Conformément aux études antérieures, les coefficients de corrélations effectuées à partir des données de l’Expérience 1 et de l’Expérience 2 soutiennent la notion que les mesures comportementales de double tâche et les réponses aux questionnaires évaluent différentes dimensions de l’effort associé à la reconnaissance de la parole. Comme l’effort associé à la perception de la parole repose sur des facteurs auditifs et cognitifs, une troisième étude fut complétée afin d’explorer si la mémoire auditive de travail contribue à expliquer la variance dans les données portant sur l’effort associé à la perception de la parole. De plus, ces analyses ont permis de comparer les patrons de réponses obtenues pour ces deux facteurs après des jeunes adultes et des personnes aînées. Pour les jeunes adultes, les résultats d’une analyse de régression séquentielle ont démontré qu’une mesure de la capacité auditive (taille de l’empan) était reliée à l’effort, tandis qu’une mesure du traitement auditif (rappel alphabétique) était reliée à la précision avec laquelle les mots étaient reconnus lorsqu’ils étaient présentés sous les conditions de double tâche. Cependant, ces mêmes relations n’étaient pas présentes dans les données obtenues pour le groupe de personnes aînées ni dans les données obtenues lorsque les tâches de reconnaissance de la parole étaient effectuées en modalité auditivo-visuelle. D’autres études sont nécessaires pour identifier les facteurs cognitifs qui sous-tendent l’effort associé à la perception de la parole, et ce, particulièrement chez les personnes aînées.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
Les pertes d’équilibre représentent une cause importante de blessure et de mortalité, notamment sur le milieu du travail et chez les personnes âgées. Cette thèse explore les effets du manque de sommeil sur le contrôle postural en fonction de l’âge et s’intéresse à l’influence des ressources attentionnelles, perceptuelles et motrices sur la relation entre le sommeil et le contrôle postural. Des sujets jeunes et âgés ont effectué diverses tâches posturales statiques sur des plates-formes de force après une nuit de sommeil et après 25 heures de privation de sommeil. L’étendue et la vitesse des déplacements du centre de pression ont été mesurées en gardant les yeux ouverts et les yeux fermés sous trois niveaux de charge cognitive. Les résultats montrent que la privation de sommeil a augmenté l’étendue du centre de pression dans les deux groupes d’âge et a augmenté la vitesse du centre de pression chez les sujets âgés. De plus, les effets de la privation de sommeil sur le contrôle postural étaient davantage prononcés lorsque les sujets âgés gardent les yeux fermés. L’augmentation de la charge cognitive sous privation de sommeil a poussé la majorité des sujets jeunes à adopter un contrôle postural plus statique, alors que chez les sujets âgés, les effets de la charge cognitive ne se surajoutaient pas à ceux de la privation de sommeil. Ces observations suggèrent que la privation de sommeil ait des effets déstabilisateurs sur le contrôle postural qui sont plus marqués chez les personnes âgées, surtout lorsque les informations visuelles sont altérées. Il est donc proposé que le manque de sommeil soit un facteur de risque significatif pour les chutes.
Resumo:
À tout âge, l’exercice physique peut être bénéfique au fonctionnement cognitif. Étant quotidiennement confrontés à des situations d’apprentissage, l’enfant et l’adolescent constituent une population particulièrement susceptible de profiter de ces bienfaits. Cependant, il importe de préciser et d’étudier les facteurs qui influencent la relation entre l’exercice physique et la cognition. L’objectif général de cette thèse était d’examiner, à l’aide de mesures électrophysiologiques, les effets aigus et chroniques de l’exercice physique sur les mécanismes neurophysiologiques du fonctionnement cognitif de l’enfant. Une première étude a apprécié la durée des effets aigus de l’exercice physique. Les résultats de ces travaux suggèrent qu’une séance ponctuelle d’exercice physique augmente la vigilance pendant au moins 30 min. Toujours dans un contexte d’effets aigus de l’exercice, l’impact de la demande cognitive de la tâche et de l’âge ont été examinés dans une seconde étude. Les résultats ne révèlent aucune interaction avec l’âge, cependant ils indiquent une spécificité pour les processus plus complexes du traitement de l’information. Enfin, une troisième étude a évalué l’effet de l’exercice physique chronique dans le cadre d’un programme d’activités physiques de 12 semaines. Aucun changement n’a été observé quant à l’aptitude cardiovasculaire ou la performance cognitive suite au programme. Une condition physique initialement élevée des participants pourrait expliquer ce résultat. En résumé, peu importe la condition physique de l’enfant, un exercice physique aigu d’intensité moyenne est bénéfique à la vigilance et à certains aspects du traitement cognitif de l’information. Les effets observés semblent suffisamment durables pour avoir un impact positif sur l’apprentissage en classe après une récréation ou un cours d’éducation physique.
Resumo:
L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.
Resumo:
L’amusie congénitale est un trouble neuro-développemental se définissant par des difficultés à percevoir la musique, et ce malgré une ouïe et une intelligence normales. Un déficit de discrimination fine des hauteurs serait à l’origine de ce trouble, qui se traduit notamment par une incapacité à détecter les fausses notes. afin de mieux comprendre les facteurs génétiques contribuant à la manifestation de l’amusie congénitale, la présente étude avait pour objectif: (a) de déterminer si la performance sur diverses tâches musicales et auditives était plus similaire chez les jumeaux identiques (monozygotes ; MZ) que chez les jumeaux non-identiques (dizygotes ; DZ) et (b) d’explorer les variables relatives à l’environnement musical des jumeaux, afin de mieux comprendre les contributions de l’environnement et de la génétique dans les différences sous-tendant les habiletés musicales. De plus, le profil des sujets amusiques a été analysé afin de vérifier s’il correspondait à celui décrit dans la littérature, faisant état de difficultés tonales, mais non rythmiques. Huit paires de jumeaux MZ et six paires de jumeaux DZ, parmi lesquelles au moins un des co-jumeaux était potentiellement amusique, ont pris part à cette étude. Les tâches consistaient en un test en ligne de perception mélodique et rythmique, un test de détection des différences de hauteurs, ainsi qu’un test de chant. L’analyse de la performance et de l’environnement musical des jumeaux MZ et DZ ne révèle aucune distinction comportementale entre ces deux groupes en ce qui concerne les habiletés musicales. Cela suggère que celles-ci puissent être davantage influencées par l’environnement partagé que par les facteurs génétiques. Enfin, les jumeaux amusiques ont le profil habituel d’habiletés musicales. En effet, ils commettent des erreurs de perception et de production musicale au niveau mélodique, mais ont une perception rythmique préservée. D’autres études, notamment avec de plus grands échantillons de jumeaux, seront nécessaires afin d’élucider la possible étiologie génétique sous-tendant l’amusie congénitale.