834 resultados para non-conscious cognitive processing (NCCP) time.
Resumo:
Abstract The therapeutic alliance (TA) is the most studied process of adult psychotherapeutic change (Zack et al., 2007) and has been found to have a moderate but robust relationship with therapeutic outcome regardless of treatment modality (Horvath, 2001). The TA is loosely described as the extent to which the therapist and the participant connect emotionally and work together towards goals. Conceptualizations of the TA with children have relied on adult models, even though it is widely acknowledged that the pediatric population will rarely willingly commit to therapy, nor readily admit to any challenges that they may be experiencing (Keeley, Geffken, McNamara & Storch, 2011). For children with Autism Spectrum Disorder (ASD) the therapeutic alliance may require an even greater retheorizing considering the communicative and social difficulties of this particular population. Despite this need, research on children with ASD and the therapeutic TA is almost non-existent. In this qualitative study, transcripts from semi-structured interviews with mothers of children with ASD were analyzed using Interpretative Phenomenological Analysis (IPA). IPA closely examines how individual people make sense of their life experiences using a theme-by-theme approach. The three interviewees were mothers whose children were participants in a nine-week Cognitive Behaviour Therapy (CBT) group for obsessive-compulsive behaviours (OCB). A total of four superordinate themes were identified: (i) Centralization and disremembering the TA, (ii) Qualities of the therapist, (iii) TA and the importance of time, and (iv) Signs of a healthy TA. The mothers’ perspectives on the TA suggest that, for them and their children, a strong TA was a required component of the therapy. Implications for clinicians and researchers are discussed.
Resumo:
This lexical decision study with eye tracking of Japanese two-kanji-character words investigated the order in which a whole two-character word and its morphographic constituents are activated in the course of lexical access, the relative contributions of the left and the right characters in lexical decision, the depth to which semantic radicals are processed, and how nonlinguistic factors affect lexical processes. Mixed-effects regression analyses of response times and subgaze durations (i.e., first-pass fixation time spent on each of the two characters) revealed joint contributions of morphographic units at all levels of the linguistic structure with the magnitude and the direction of the lexical effects modulated by readers’ locus of attention in a left-to-right preferred processing path. During the early time frame, character effects were larger in magnitude and more robust than radical and whole-word effects, regardless of the font size and the type of nonwords. Extending previous radical-based and character-based models, we propose a task/decision-sensitive character-driven processing model with a level-skipping assumption: Connections from the feature level bypass the lower radical level and link up directly to the higher character level.
Resumo:
L’objectif de la présente étude visait à évaluer les effets différentiels de la privation de sommeil (PS) sur le fonctionnement cognitif sous-tendu par les substrats cérébraux distincts, impliqués dans le réseau fronto-pariétal attentionnel, lors de l’administration d’une tâche simple et de courte durée. Les potentiels évoqués cognitifs, avec sites d’enregistrement multiples, ont été prévilégiés afin d’apprécier les effets de la PS sur l’activité cognitive rapide et ses corrélats topographiques. Le matin suivant une PS totale d’une durée de 24 heures et suivant une nuit de sommeil normale, vingt participants ont exécuté une tâche oddball visuelle à 3 stimuli. L’amplitude et la latence ont été analysées pour la P200 et la N200 à titre d’indices frontaux, tandis que la P300 a été analysée, à titre de composante à contribution à la fois frontale et pariétale. Suite à la PS, une augmentation non spécifique de l’amplitude de la P200 frontale à l’hémisphère gauche, ainsi qu’une perte de latéralisation spécifique à la présentation des stimuli cibles, ont été observées. À l’opposé, l’amplitude de la P300 était réduite de façon prédominante dans la région pariétale pour les stimuli cibles. Enfin, un délai de latence non spécifique pour la N200 et la P300, ainsi qu’une atteinte de la performance (temps de réaction ralentis et nombre d’erreurs plus élevé) ont également été objectivées. Les résultats confirment qu’une PS de durée modérée entraîne une altération des processus attentionnels pouvant être objectivée à la fois par les mesures comportementales et électrophysiologiques. Ces modifications sont présentes à toutes les étapes de traitement, tel que démontré par les effets touchant la P200, la N200 et la P300. Qui plus est, la PS affecte différemment les composantes à prédominance frontale et pariétale.
Resumo:
L’émergence de l’utilisation du méthylphénidate (MPH; Ritalin) par des étudiants universitaires afin d’améliorer leur concentration et leurs performances universitaires suscite l’intérêt du public et soulève d’importants débats éthiques auprès des spécialistes. Les différentes perspectives sur l’amélioration des performances cognitives représentent une dimension importante des défis sociaux et éthiques autour d’un tel phénomène et méritent d’être élucidées. Ce mémoire vise à examiner les discours présents dans les reportages internationaux de presse populaire, les discours en bioéthique et en en santé publique sur le thème de l’utilisation non médicale du méthylphénidate. Cette recherche a permis d’identifier et d’analyser des « lacunes » dans les perspectives éthiques, sociales et scientifiques de l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive d’individus en santé. Une analyse systématique du contenu des discours sur l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive a identifié des paradigmes divergents employés pour décrire l’utilisation non médicale du méthylphénidate et discuter ses conséquences éthiques. Les paradigmes « choix de mode de vie », « abus de médicament » et « amélioration de la cognition » sont présents dans les discours de la presse populaire, de la bioéthique et de la santé publique respectivement. Parmi les principales différences entre ces paradigmes, on retrouve : la description de l’utilisation non médicale d’agents neuropharmacologiques pour l’amélioration des performances, les risques et bénéfices qui y sont associés, la discussion d’enjeux éthiques et sociaux et des stratégies de prévention et les défis associés à l’augmentation de la prévalence de ce phénomène. La divergence de ces paradigmes reflète le pluralisme des perceptions de l’utilisation non médicale d’agents neuropharmacologiques Nos résultats suggèrent la nécessité de débats autour de l’amélioration neuropharmacologique afin de poursuivre l’identification des enjeux et de développer des approches de santé publique cohérentes.
Resumo:
Résumé La présente thèse doctorale vise à déterminer sous quelles conditions la garde non-maternelle est associée (positivement/négativement) au niveau de stress et au développement cognitif des enfants. Elle comporte une recension des écrits et trois articles empiriques. Le premier article présente une recension des écrits (de type méta-analytique) qui synthétise les études portant sur le stress des enfants en services de garde et ayant utilisé le niveau de cortisol comme indicateur. Les résultats montrent que la garde non-maternelle est associée au niveau de stress des enfants, se reflétant dans des concentrations de cortisol élevées. Les niveaux de stress élevés s’observent particulièrement chez les enfants qui au départ ont tendance à être retirés, anxieux ou qui sont gardés dans un milieu de faible qualité. Cependant, certains éléments indiquent que les élévations de cortisol à la garderie sont temporaires et qu’elles disparaissent au fur et à mesure que l’enfant s’adapte à son milieu. Le deuxième article de thèse, réalisé dans le contexte de l’Échantillon longitudinal national des enfants et des jeunes [ELNEJ] (n = 3093), vise à déterminer dans quelle mesure l’association entre la fréquentation des services de garde et l’acquisition du vocabulaire réceptif au préscolaire dépend du milieu familial de l’enfant. Les résultats indiquent qu’à l’intérieur du groupe d’enfants défavorisés, ceux ayant été gardés à temps plein dans la première année de vie obtiennent des scores supérieurs sur une mesure de vocabulaire réceptif administrée à 4 ½ ans, comparativement aux enfants restés à la maison avec la mère (d=0.58). Le troisième article, réalisé dans le contexte de l’Étude longitudinale des enfants du Québec [ELDEQ]; (n=2,120), vise à documenter les bénéfices à long terme de la fréquentation des services de garde par les enfants issus de milieux désavantagés sur la préparation scolaire et les compétences académiques. Les résultats révèlent que les enfants dont la mère n’a pas terminé ses études secondaires obtiennent de meilleurs résultats sur une mesure de préparation scolaire cognitive (d=0.56) et de vocabulaire réceptif (d=0.30) en maternelle, et de connaissance des nombres (d=0.43) en première année, s’ils ont fréquenté un service de garde sur une base régulière. Par ailleurs, la garde non-parentale n’est pas associée aux compétences cognitives des enfants de milieux sociaux favorisés. L’objectif du quatrième article est d’examiner les facteurs de sélection quant à l’utilisation des services de garde dans le contexte de l’ELDEQ. Les résultats montrent que l’absence d’emploi de la mère pendant la grossesse, le faible niveau d’éducation de la mère; le revenu insuffisant de la famille, avoir plus de 2 frères et sœurs, la surprotection maternelle, et le faible niveau de stimulation cognitive sont associés à une faible utilisation des services de garde (30.7% de l’échantillon québécois). En d’autres termes, les enfants qui sont les plus susceptibles de retirer des avantages des services de garde sur le plan du développement, en raison de la présence de facteurs de risque dans leur milieu familial, sont aussi ceux qui utilisent le moins les services de garde.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD.
Resumo:
Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.
Resumo:
Malgré l’engouement pour les neurosciences cognitives des émotions et les nombreuses publications des dernières décennies tentant d’élucider les bases neurobiologiques des émotions, nos connaissances sur le domaine restent embryonnaires. Plusieurs questions importantes restent toujours sans réponses incluant s’il existe ou non un système unique pour le traitement de stimuli émotionnels et s’il y a ou non des différences entre les hommes et les femmes pour le traitement de stimuli émotionnels. L’objectif de cette thèse est d’apporter certains éléments de réponses à ces questions à travers une caractérisation du substrat neurobiologique impliqué dans le traitement de stimuli émotionnels visuels et dynamiques. Ce travail a été mené via l’imagerie par résonance magnétique fonctionnelle (IRMf) cérébrale. Le premier chapitre, subdivisé en quatre sections, permet de présenter la perspective dans laquelle s’inscrit la thèse. La première section de ce chapitre sert à établir certaines balises définitionnelles liées aux émotions. La seconde section, basée sur une lecture des textes originaux, retrace les faits historiques saillants de la neurobiologie des émotions allant de Charles Darwin à Joseph Ledoux. La troisième section débute où la seconde s’arrête et continue l’histoire de la neurobiologie des émotions à travers un résumé de toutes les principales méta-analyses d’imagerie fonctionnelle cérébrale des émotions. La dernière section du chapitre permet de présenter la problématique de recherche. La recherche, à proprement parler, qui constitue le corps de la thèse est ensuite présentée sous forme de trois articles. Enfin, les résultats de cette recherche et la manière dont ils s’inscrivent dans la continuité de nos connaissances actuelles font l’objet d’une discussion générale. Le premier article (chapitre II) rapporte, chez les hommes et les femmes, les régions du cerveau qui sont plus activées lors du traitement de films érotiques que lors du traitement de films dits ‘neutres’. Un chevauchement manifeste est observé entre les hommes et les femmes. Par contre, une activation significativement plus grande est observée chez les hommes pour l’hypothalamus, une région importante pour le comportement sexuel à travers la phylogénie. De plus, chez les hommes seulement, l’activation hypothalamique est corrélée à l’excitation sexuelle subjective. Comme la recherche présentée dans le premier article se sert de conditions expérimentales relativement longues pour l’IRMf (i.e. extraits de films de 3 minutes) et que ceci peut induire une nette diminution de signal en lien avec certaines contraintes de l’IRMf, le second article (chapitre III) examine les corrélats du traitement de stimuli sexuels en utilisant, cette fois, un paradigme d’IRMf classique où plusieurs extraits de films de 33 secondes sont présentés à la place. Cette étude démontre que, pour le traitement de stimuli sexuels, ce paradigme classique d’IRMf est beaucoup plus sensible que celui du premier article. De plus, comme ce paradigme mène à une reproduction des résultats du premier papier, ce travail soutient la perspective selon laquelle les paradigmes à époques courtes sont une alternative valide aux longues époques comme méthode d’étude du traitement de stimuli émotionnels. Le troisième article (chapitre IV) capitalise sur le protocole du second article et démontre que les patrons d’activation associés au visionnement de courts extraits de films induisant du dégoût, de l’amusement, ou de l’excitation sexuelle, sont très étendus. Une analyse de conjonction formelle démontre un large chevauchent de ces patrons à travers les différents affects étudiés. Enfin, le cinquième chapitre sert de discussion générale. Les questions des différences entre les hommes et les femmes dans le traitement des émotions, de l’existence ou non d’un système général pour le traitement des émotions, ainsi que de la manière dont un tel système pourrait être conçu, sont des points saillants de la discussion. Ces points sont abordés à la lumières des connaissances actuelles et des résultats des trois articles.
Resumo:
La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.
Resumo:
La capacité du système visuel humain à compléter une image partiellement dévoilée et à en dériver une forme globale à partir de ses fragments visibles incomplets est un phénomène qui suscite, jusqu’à nos jours, l’intérêt de nombreux scientifiques œuvrant dans différents milieux de recherche tels que l’informatique, l’ingénierie en intelligence artificielle, la perception et les neurosciences. Dans le cadre de la présente thèse, nous nous sommes intéressés spécifiquement sur les substrats neuronaux associés à ce phénomène de clôture perceptive. La thèse actuelle a donc pour objectif général d’explorer le décours spatio-temporel des corrélats neuronaux associés à la clôture perceptive au cours d’une tâche d’identification d’objets. Dans un premier temps, le premier article visera à caractériser la signature électrophysiologique liée à la clôture perceptive chez des personnes à développement typique dans le but de déterminer si les processus de clôture perceptive reflèteraient l’interaction itérative entre les mécanismes de bas et de haut-niveau et si ceux-ci seraient sollicités à une étape précoce ou tardive lors du traitement visuel de l’information. Dans un deuxième temps, le second article a pour objectif d’explorer le décours spatio-temporel des mécanismes neuronaux sous-tendant la clôture perceptive dans le but de déterminer si les processus de clôture perceptive des personnes présentant un trouble autistique se caractérisent par une signature idiosyncrasique des changements d’amplitude des potentiels évoqués (PÉs). En d’autres termes, nous cherchons à déterminer si la clôture perceptive en autisme est atypique et nécessiterait davantage la contribution des mécanismes de bas-niveau et/ou de haut-niveau. Les résultats du premier article indiquent que le phénomène de clôture perceptive est associé temporellement à l’occurrence de la composante de PÉs N80 et P160 tel que révélé par des différences significatives claires entre des objets et des versions méconnaissables brouillées. Nous proposons enfin que la clôture perceptive s’avère un processus de transition reflétant les interactions proactives entre les mécanismes neuronaux œuvrant à apparier l’input sensoriel fragmenté à une représentation d’objets en mémoire plausible. Les résultats du second article révèlent des effets précoces de fragmentation et d’identification obtenus au niveau de composantes de potentiels évoqués N80 et P160 et ce, en toute absence d’effets au niveau des composantes tardives pour les individus avec autisme de haut niveau et avec syndrome d’Asperger. Pour ces deux groupes du trouble du spectre autistique, les données électrophysiologiques suggèrent qu’il n’y aurait pas de pré-activation graduelle de l’activité des régions corticales, entre autres frontales, aux moments précédant et menant vers l’identification d’objets fragmentés. Pour les participants autistes et avec syndrome d’Asperger, les analyses statistiques démontrent d’ailleurs une plus importante activation au niveau des régions postérieures alors que les individus à développement typique démontrent une activation plus élevée au niveau antérieur. Ces résultats pourraient suggérer que les personnes du spectre autistique se fient davantage aux processus perceptifs de bas-niveau pour parvenir à compléter les images d’objets fragmentés. Ainsi, lorsque confrontés aux images d’objets partiellement visibles pouvant sembler ambiguës, les individus avec autisme pourraient démontrer plus de difficultés à générer de multiples prédictions au sujet de l’identité d’un objet qu’ils perçoivent. Les implications théoriques et cliniques, les limites et perspectives futures de ces résultats sont discutées.
Resumo:
Non-destructive testing (NDT) is the use of non-invasive techniques to determine the integrity of a material, component, or structure. Engineers and scientists use NDT in a variety of applications, including medical imaging, materials analysis, and process control.Photothermal beam deflection technique is one of the most promising NDT technologies. Tremendous R&D effort has been made for improving the efficiency and simplicity of this technique. It is a popular technique because it can probe surfaces irrespective of the size of the sample and its surroundings. This technique has been used to characterize several semiconductor materials, because of its non-destructive and non-contact evaluation strategy. Its application further extends to analysis of wide variety of materials. Instrumentation of a NDT technique is very crucial for any material analysis. Chapter two explores the various excitation sources, source modulation techniques, detection and signal processing schemes currently practised. The features of the experimental arrangement including the steps for alignment, automation, data acquisition and data analysis are explained giving due importance to details.Theoretical studies form the backbone of photothermal techniques. The outcome of a theoretical work is the foundation of an application.The reliability of the theoretical model developed and used is proven from the studies done on crystalline.The technique is applied for analysis of transport properties such as thermal diffusivity, mobility, surface recombination velocity and minority carrier life time of the material and thermal imaging of solar cell absorber layer materials like CuInS2, CuInSe2 and SnS thin films.analysis of In2S3 thin films, which are used as buffer layer material in solar cells. The various influences of film composition, chlorine and silver incorporation in this material is brought out from the measurement of transport properties and analysis of sub band gap levels.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention. Chapter six thus elucidates the theoretical aspects of application of photothermal techniques for solar cell analysis. The experimental design and method for determination of solar cell efficiency, optimum load resistance and series resistance with results from the analysis of CuInS2/In2S3 based solar cell forms the skeleton of this chapter.
Resumo:
Sonar signal processing comprises of a large number of signal processing algorithms for implementing functions such as Target Detection, Localisation, Classification, Tracking and Parameter estimation. Current implementations of these functions rely on conventional techniques largely based on Fourier Techniques, primarily meant for stationary signals. Interestingly enough, the signals received by the sonar sensors are often non-stationary and hence processing methods capable of handling the non-stationarity will definitely fare better than Fourier transform based methods.Time-frequency methods(TFMs) are known as one of the best DSP tools for nonstationary signal processing, with which one can analyze signals in time and frequency domains simultaneously. But, other than STFT, TFMs have been largely limited to academic research because of the complexity of the algorithms and the limitations of computing power. With the availability of fast processors, many applications of TFMs have been reported in the fields of speech and image processing and biomedical applications, but not many in sonar processing. A structured effort, to fill these lacunae by exploring the potential of TFMs in sonar applications, is the net outcome of this thesis. To this end, four TFMs have been explored in detail viz. Wavelet Transform, Fractional Fourier Transfonn, Wigner Ville Distribution and Ambiguity Function and their potential in implementing five major sonar functions has been demonstrated with very promising results. What has been conclusively brought out in this thesis, is that there is no "one best TFM" for all applications, but there is "one best TFM" for each application. Accordingly, the TFM has to be adapted and tailored in many ways in order to develop specific algorithms for each of the applications.
Resumo:
The problem of the relevance and the usefulness of extracted association rules is of primary importance because, in the majority of cases, real-life databases lead to several thousands association rules with high confidence and among which are many redundancies. Using the closure of the Galois connection, we define two new bases for association rules which union is a generating set for all valid association rules with support and confidence. These bases are characterized using frequent closed itemsets and their generators; they consist of the non-redundant exact and approximate association rules having minimal antecedents and maximal consequences, i.e. the most relevant association rules. Algorithms for extracting these bases are presented and results of experiments carried out on real-life databases show that the proposed bases are useful, and that their generation is not time consuming.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.