623 resultados para Nonverbal Decoding
Resumo:
We have investigated Russian children’s reading acquisition during an intermediate period in their development: after literacy onset, but before they have acquired well-developed decoding skills. The results of our study suggest that Russian first graders rely primarily on phonemes and syllables as reading grain-size units. Phonemic awareness seems to have reached the metalinguistic level more rapidly than syllabic awareness after the onset of reading instruction, the reversal which is typical for the initial stages of formal reading instruction creating external demand for phonemic awareness. Another reason might be the inherent instability of syllabic boundaries in Russian. We have shown that body-coda is a more natural representation of subsyllabic structure in Russian than onset-rime. We also found that Russian children displayed variability of syllable onset and offset decisions which can be attributed to the lack of congruence between syllabic and morphemic word division in Russian. We suggest that fuzziness of syllable boundary decisions is a sign of the transitional nature of this stage in the reading development and it indicates progress towards an awareness of morphologically determined closed syllables. Our study also showed that orthographic complexity exerts an influence on reading in Russian from the very start of reading acquisition. Besides, we found that Russian first graders experience fluency difficulties in reading orthographically simple words and nonwords of two and more syllables. The transition from monosyllabic to bisyllabic lexical items constitutes a certain threshold, for which the syllabic structure seemed to be of no difference. When we compared the outcomes of the Russian children with the ones produced by speakers of other languages, we discovered that in the tasks which could be performed with the help of alphabetic recoding Russian children’s accuracy was comparable to that of children learning to read in relatively shallow orthographies. In tasks where this approach works only partially, Russian children demonstrated accuracy results similar to those in deeper orthographies. This pattern of moderate results in accuracy and excellent performance in terms of reaction times is an indication that children apply phonological recoding as their dominant strategy to various reading tasks and are only beginning to develop suitable multiple strategies in dealing with orthographically complex material. The development of these strategies is not completed during Grade 1 and the shift towards diversification of strategies apparently continues in Grade 2.
Resumo:
Intelligence from a human source, that is falsely thought to be true, is potentially more harmful than a total lack of it. The veracity assessment of the gathered intelligence is one of the most important phases of the intelligence process. Lie detection and veracity assessment methods have been studied widely but a comprehensive analysis of these methods’ applicability is lacking. There are some problems related to the efficacy of lie detection and veracity assessment. According to a conventional belief an almighty lie detection method, that is almost 100% accurate and suitable for any social encounter, exists. However, scientific studies have shown that this is not the case, and popular approaches are often over simplified. The main research question of this study was: What is the applicability of veracity assessment methods, which are reliable and are based on scientific proof, in terms of the following criteria? o Accuracy, i.e. probability of detecting deception successfully o Ease of Use, i.e. easiness to apply the method correctly o Time Required to apply the method reliably o No Need for Special Equipment o Unobtrusiveness of the method In order to get an answer to the main research question, the following supporting research questions were answered first: What kinds of interviewing and interrogation techniques exist and how could they be used in the intelligence interview context, what kinds of lie detection and veracity assessment methods exist that are reliable and are based on scientific proof and what kind of uncertainty and other limitations are included in these methods? Two major databases, Google Scholar and Science Direct, were used to search and collect existing topic related studies and other papers. After the search phase, the understanding of the existing lie detection and veracity assessment methods was established through a meta-analysis. Multi Criteria Analysis utilizing Analytic Hierarchy Process was conducted to compare scientifically valid lie detection and veracity assessment methods in terms of the assessment criteria. In addition, a field study was arranged to get a firsthand experience of the applicability of different lie detection and veracity assessment methods. The Studied Features of Discourse and the Studied Features of Nonverbal Communication gained the highest ranking in overall applicability. They were assessed to be the easiest and fastest to apply, and to have required temporal and contextual sensitivity. The Plausibility and Inner Logic of the Statement, the Method for Assessing the Credibility of Evidence and the Criteria Based Content Analysis were also found to be useful, but with some limitations. The Discourse Analysis and the Polygraph were assessed to be the least applicable. Results from the field study support these findings. However, it was also discovered that the most applicable methods are not entirely troublefree either. In addition, this study highlighted that three channels of information, Content, Discourse and Nonverbal Communication, can be subjected to veracity assessment methods that are scientifically defensible. There is at least one reliable and applicable veracity assessment method for each of the three channels. All of the methods require disciplined application and a scientific working approach. There are no quick gains if high accuracy and reliability is desired. Since most of the current lie detection studies are concentrated around a scenario, where roughly half of the assessed people are totally truthful and the other half are liars who present a well prepared cover story, it is proposed that in future studies lie detection and veracity assessment methods are tested against partially truthful human sources. This kind of test setup would highlight new challenges and opportunities for the use of existing and widely studied lie detection methods, as well as for the modern ones that are still under development.
Resumo:
This research looked at conditions which result in the development of integrated letter code information in the acquisition of reading vocabulary. Thirty grade three children of normal reading ability acquired new reading words in a Meaning Assigned task and a Letter Comparison task, and worked to increase skill for known reading words in a Copy task. The children were then assessed on their ability to identify the letters in these words. During the test each stimulus word for each child was exposed for 100 msec., after which each child reported as many of his or her letters as he or she could. Familiar words, new words, and a single letter identification task served as within subject controls. Following this, subjects were assessed for word meaning recall of the Meaning Assigned words and word reading times for words in all condi tions • The resul ts supported an episodic model of word recognition in which the overlap between the processing operations employed in encoding a word and those required when decoding it affected decoding performance. In particular, the Meaning Assigned and Copy tasks. appeared to facilitate letter code accessibility and integration in new and familiar words respectively. Performance in the Letter Comparison task, on the other hand, suggested that subjects can process the elements of a new word without integrating them into its lexical structure. It was concluded that these results favour an episodic model of word recognition.
Resumo:
The present study explored processing strategies used by individuals when they begin to read c;l script. Stimuli were artificial words created from symbols and based on an alphabetic system. The words were.presented to Grade Nine and Ten students, with variations included in the difficulty of orthography and word familiarity, and then scores were recorded on the mean number of trials for defined learning variables. Qualitative findings revealed that subjects 1 earned parts of the visual a'nd auditory features of words prior to hooking up the visual stimulus to the word's name. Performance measures-which appear to affect the rate of learning were as follows: auditory short-term memory, auditory delayed short-term memory, visual delayed short- term memory, and word attack or decod~ng skills. Qualitative data emerging in verbal reports by the subjects revealed that strategies they pefceived to use were, graphic, phonetic decoding and word .reading.
Resumo:
The purpose of this study was to investigate Howard Gardner's (1983) Multiple Intelligences theory, which proposes that there are eight independent intelligences: Linguistic, Spatial, Logical/Mathematical, Interpersonal, Intrapersonal, Naturalistic, Bodily-Kinesthetic, and Musical. To explore Gardner's theory, two measures of each ability area were administered to 200 participants. Each participant also completed a measure of general cognitive ability, a personality inventory, an ability self-rating scale, and an ability self-report questionnaire. Nonverbal measures were included for most intelligence domains, and a wide range of content was sampled in Gardner's domains. Results showed that all tests of purely cognitive abilities were significantly correlated with the measure of general cognitive ability, whereas Musical, Bodily-Kinesthetic, and one of the Intrapersonal measures were not. Contrary to what Multiple Intelligences theory would seem to predict, correlations among the tests revealed a positive manifold and factor analysis indicated a large factor of general intelligence, with a mathematical reasoning test and a classification task from the Naturalistic domain having the highest ^- loadings. There were only minor sex differences in performance on the ability tests. Participants' self-estimates of ability were significantly and positively correlated with actual performance in some, but not all, intelligences. With regard to personality, a hypothesized association between Openness to Experience and crystallized intelligence was supported. The implications of the findings in regards to the nature of mental abilities were discussed, and recommendations for further research were made.
Resumo:
This qualitative inquiry used case study methodology to explore the change processes of 3 primary-grade teachers throughout their participation in 7 -month professional learning initiative focused on reading assessment and instruction. Participants took part in semimonthly inquiry-based professional learning community sessions, as well as concurrent individualized classroom-based literacy coaching. Each participant's experiences were first analyzed as a single case study, followed by cross-case analyses. While their patterns of professional growth differed, findings documented how all participants altered their understandings of the roles and relevancy of individual components of reading instruction (e.g., comprehension, decoding) and instructional approaches to scaffold students' growth (e.g., levelled text, strategy instruction), and experienced some form of conceptual change. Factors identified as affecting their change processes included; motivation, professional knowledge, professional beliefs (self-efficacy and theoretical orientation), resources (e.g., time, support), differentiated professional learning with associated goal-setting, and uncontrollable influences, with the affect of each factor compounded by interaction with the others. Comparison of participants' experiences to the Cognitive-Affective Model of Conceptual Change (CAMCC) and the Interconnected Model of Teacher Professional Growth (IMTPG) demonstrated the applicability of using both conceptual models, with the IMTPG providing macrolevel insights over time and the CAMCC microlevel insights at each change intervaL Recommendations include the provision of differentiated teacher professional learning opportunities, as well as research documenting the effects of teacher mentorship programs and the professional growth of teacher educators. ii
Resumo:
When working with under-served youth, possibly the most important, yet often times the most difficult, thing for practitioners to do is to build positive, trusting, open relationships. This study aims to address this challenge. Two groups of under-served youth were examined, one being teens deemed “at-risk” and one being youth with Autism Spectrum Disorder (ASD). This study was novel in its approach as all efforts were made to ensure the youth's opinions on how to be relational with them were heard. Two youths with ASD were nonverbal and a special picture interview procedure was developed to allow their participation. Three thematic statements emerged from the data collected: 1. Youth need low anxiety relationships. 2. Youth need novel forms of engagement. 3. Youth need us to understand that their actions reflect their histories. The analyses that lead to these statements are described as well as the reasoning and implications of these statements.
Resumo:
The purpose of this project is to provide social service practitioners with tools and perspectives to engage young people in a process of developing and connecting with their own personal narratives, and storytelling with others. This project extensively reviews the literature to explore Why Story, What Is Story, Future Directions of Story, and Challenges of Story. Anchoring this exploration is Freire’s (1970/2000) intentional uncovering and decoding. Taking a phenomenological approach, I draw additionally on Brookfield’s (1995) critical reflection; Delgado (1989) and McLaren (1998) for subversive narrative; and Robin (2008) and Sadik (2008) for digital storytelling. The recommendations provided within this project include a practical model built upon Baxter Magolda and King’s (2004) process towards self-authorship for engaging an exercise of storytelling that is accessible to practitioners and young people alike. A personal narrative that aims to help connect lived experience with the theoretical content underscores this project. I call for social service practitioners to engage their own personal narratives in an inclusive and purposeful storytelling method that enhances their ability to help the young people they serve develop and share their stories.
Resumo:
Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.
Resumo:
Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD.
Resumo:
L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.
Resumo:
On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.
Resumo:
Le but de cette étude était d’explorer et de comprendre l’expérience que peuvent vivre les proches aidants au regard de leurs interactions avec leur parent âgé qui erre, lors de leurs visites au centre d’hébergement et de soins de longue durée. Une étude qualitative exploratoire a été réalisée en s’inspirant de la conception des interactions sociales de Khosravi (2003, 2007) et de la théorie de l’être humain unitaire de Rogers (1970, 1990). À l’aide d’un guide d’entretien semi-dirigé, des entrevues individuelles ont été effectuées auprès de cinq filles aidantes ayant un parent errant hébergé. Le but de cette étude était d’explorer et de comprendre l’expérience que peuvent vivre les proches aidants au regard de leurs interactions avec leur parent âgé qui erre, lors de leurs visites au centre d’hébergement et de soins de longue durée. Une étude qualitative exploratoire a été réalisée en s’inspirant de la conception des interactions sociales de Khosravi (2003, 2007) et de la théorie de l’être humain unitaire de Rogers (1970, 1990). À l’aide d’un guide d’entretien semi-dirigé, des entrevues individuelles ont été effectuées auprès de cinq filles aidantes ayant un parent errant hébergé. Les résultats de l’analyse thématique suggèrent que ces aidantes sont en mesure d’expliquer l’errance en identifiant plusieurs causes à ce comportement, entre autres la recherche de repères connus, les habitudes de vie antérieures, le besoin de liberté et le désir de retourner chez soi. Être en mesure d’expliquer le comportement semble en favoriser l’acceptation. Cette compréhension et cette acceptation du besoin constant de se mouvoir permettent aux aidantes d’entretenir des interactions avec leur parent et de passer de « bons moments » lors des visites. Pour maintenir ces interactions encore importantes, les aidantes ont développé des stratégies de communication non verbales comme le toucher et la marche rapide. Elles ont également su se familiariser avec ce comportement en évitant de confronter leur parent et en faisant preuve de créativité. Ces résultats mettent en lumière des pistes d’interventions infirmières afin de favoriser des interactions harmonieuses entre les résidents errants et leur proche aidant.
Resumo:
La présente recherche explore les conséquences d’une perte auditive périphérique sur le traitement de l’information auditive. Des études ont montré que les enfants malentendants ont de la difficulté à effectuer des tâches d’écoute complexes. De plus, des études menées auprès d’adultes malentendants montrent que l’activité corticale associée à l’écoute de stimuli auditifs est différente de celle d’adultes entendants. Cependant, les résultats de ces études ne mettent pas en lumière la nature des difficultés de traitement de l’information auditive des enfants malentendants. Cette recherche examine donc cet aspect en ayant recours à des mesures comportementales et neurophysiologiques. Les données ont été recueillies auprès de 40 enfants âgés de 9 à 12 ans : 12 enfants ayant une surdité neurosensorielle, 12 enfants ayant trouble de traitement auditif et 16 enfants normo-entendants. Les enfants ont reproduit dans l’ordre des séquences de deux, trois et cinq stimuli verbaux ou non verbaux avec un intervalle interstimuli de 425 ms. Les enfants ont également reproduit des séquences de deux stimuli avec un intervalle interstimuli de 20 et 1000 ms. Enfin, les enfants ont été soumis à des mesures neurophysiologiques à partir de potentiels évoqués auditifs de latence longue et de négativité de discordance avec des paires de stimuli verbaux et non verbaux. Les résultats obtenus permettent d’avancer que les participants du groupe d’enfants malentendants ont un trouble spécifique de traitement auditif. En effet, les résultats de la tâche comportementale montrent que les enfants malentendants ont de la difficulté à traiter des séquences de stimuli lorsque ceux-ci sont verbaux et acoustiquement similaires. Quant aux données neurophysiologiques, les résultats ont démontré que l’amplitude de l’onde tardive N2 était réduite chez les enfants malentendants comparativement à celle de l’onde N2 des deux autres groupes d’enfants. Cette onde pourrait être considérée comme étant un marqueur neurophysiologique reflétant l’influence d’une perte auditive sur le traitement auditif central. De plus, l’amplitude de l’onde de négativité de discordance pourrait être aussi un marqueur pour distinguer les enfants malentendants de ceux ayant un trouble de traitement auditif.Mots-clés : organisation séquentielle auditive, potentiels évoqués auditifs de latence longue, négativité de discordance, enfants malentendants d’âge scolaire
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.