883 resultados para non separable data
Resumo:
L’utilisation d’antimicrobiens chez les animaux de consommation est une source de préoccupation importante pour la santé publique à travers le monde en raison de ses impacts potentiels sur l’émergence de micro-organismes résistants aux antimicrobiens et sur la présence de résidus antimicrobiens néfastes dans la viande. Cependant, dans les pays en développement, peu de données sont disponibles sur les pratiques d’utilisation des antimicrobiens à la ferme. Par conséquent, une étude épidémiologique transversale a été menée de juin à août 2011 dans des élevages de poulets de chair situés dans le sud du Vietnam, ayant pour objectifs de décrire la prévalence d’utilisation des antimicrobiens ajoutés à l’eau de boisson ou aux aliments à la ferme, et de tester les associations entre les caractéristiques des fermes et la non-conformité avec les périodes de retrait recommandés sur l’étiquette des produits. Un échantillon d’accommodement de 70 fermes a été sélectionné. Les propriétaires des fermes ont été interrogés en personne afin de compléter un questionnaire sur les caractéristiques des fermes et les pratiques d’utilisation d’antimicrobiens. Au cours des 6 mois précédant les entrevues, il a été rapporté que la colistine, la tylosine, l’ampicilline, l’enrofloxacine, la doxycycline, l’amoxicilline, la diavéridine et la sulfadimidine ont été utilisés au moins une fois dans les fermes échantillonnées, avec une fréquence descendante (de 75.7% à 30.0%). D’après deux scénarios de risque basés sur la comparaison de la période de retrait recommandée sur l’étiquette du produit et celle pratiquée à la ferme, de 14.3% à 44.3% des propriétaires de ferme interrogés n’ont pas respecté la période de retrait recommandée sur l’étiquette au moins une fois au cours des 6 derniers mois, et ce pour au moins un antimicrobien. Les facteurs de risque associés (p<0.05) avec une non-conformité avec la période de retrait recommandée sur l’étiquette pour au moins un des deux scénarios sont les suivants : élever des oiseaux qui n’appartiennent pas tous à des races d’origine asiatique, vacciner contre la bronchite infectieuse, avoir utilisé plus de 6 différents antimicrobiens à la ferme au cours des 6 derniers mois, et utiliser un mélange d’aliments fait maison et commerciaux. Nos résultats soulignent l’importance d’utiliser les antimicrobiens de façon judicieuse et en respectant les temps de retrait officiels, afin de protéger le consommateur contre les risques pour la santé causés par une exposition à des niveaux nocifs de résidus antimicrobiens.
Resumo:
Le récepteur V2 (V2R) de la vasopressine est un récepteur couplé aux protéines G (RCPG), jouant un rôle fondamental dans le maintien de l’homéostasie hydrosodique. À l’instar de nombreux RCPGs, il est capable d’interagir avec plusieurs types de protéines G hétérotrimériques et possède des voies de signalisation peu explorées aux mécanismes mal compris. Ces voies non canoniques font l’objet des travaux exposés dans ce mémoire. Il s’agit d’explorer les caractéristiques et mécanismes de la signalisation de V2R via G12, et de la voie d’activation d’ERK 1/2 par transactivation du récepteur de l’insulin-like growth factor 1, IGF1R. Par des études de transfert d’énergie de résonance de bioluminescence (BRET), nous exposons la capacité de V2R à interagir avec la sous-unité Gα12 ainsi que la modulation de la conformation de l’hétérotrimère G12 par l’agoniste de V2R, l’arginine-vasopressine. Ces travaux dévoilent également la modulation de l’interaction entre Gα12 et son effecteur classique RhoA, suggérant un engagement de RhoA, ainsi que la potentialisation via Gα12 de la production d’AMP cyclique. À l’aide de diverses méthodes d’inhibition sélective, nos résultats précisent les mécanismes de la transactivation. Ils supportent notamment le rôle initiateur de l’activation de Src par V2R et l’absence d’implication des ligands connus d’IGF1R dans la transactivation. La métalloprotéase MMP 3 apparaît par ailleurs comme un bon candidat pour réguler la transactivation. Ce projet met en lumière des modes de signalisation peu explorés de V2R, dont l’implication physiologique et physiopathologique pourrait s’avérer significative, au-delà d’un apport fondamental dans la compréhension de la signalisation des RCPGs.
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation
Resumo:
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.
Resumo:
Nous avons étudié la cohérence excitonique dans le poly[N- 9’-heptadecanyl-2,7-carbazole-alt-5,5-(4,7-di-2-thienyl-2’,1’,3’-benzothiadiazole] (PCDTBT). À l’aide d’un modulateur spatial de lumière, nous avons forgé des impulsions lasers ultracourtes permettant de sonder les cohérences du système. Nous nous sommes concentrés sur les propriétés cohérentes des états excitoniques, soit le singulet et l’état à transfert de charge. Nous avons observé que 35 fs après l’excitation, le singulet et l’état à transfert de charge sont toujours cohérents. Cette cohérence se mesure à l’aide de la visibilité qui est de respectivement environ 10% et 30%. De plus, nous avons démontré que les mécanismes permettant de générer du photocourant dans de tels dispositifs photovoltaïques ne sont déjà plus cohérents après 35 fs. Ces mesures révèlent une visibilité inférieure à 3%, ce qui est en deçà de la précision de nos instruments. Nous concluons donc que les états à transfert de charge ne sont pas les états précurseurs à la génération de photocourant, car ceux-ci se comportent très différemment dans les mesures de cohérences.
Resumo:
La malhonnêteté académique au cours d’épreuves présente des enjeux importants quant à l’intégrité des évaluations. La présence des TIC étant de plus en plus importante en cours de passation dans les épreuves, il est important avec ce mode de récolte de données d’assurer un niveau de sécurité égal ou même supérieur à celui présent lorsqu’un mode de récolte de données traditionnel, le papier-crayon, est utilisé. Il existe plusieurs recherches sur l’utilisation des TIC dans l’évaluation, mais peu d’entre elles traitent des modalités de sécurité lors de l’utilisation des TIC. Dans ce mémoire, treize organisations québécoises ont été rencontrées: six qui utilisaient les TIC dans la passation, cinq qui utilisaient le papier-crayon dans la passation mais qui désiraient utiliser les TIC et deux qui utilisaient le papier-crayon et qui ne désiraient pas utiliser les TIC. Les organisations sont des établissements d’enseignement (primaire, secondaire, collégial, universitaire), des entreprises privées, des organismes gouvernementaux ou municipaux et des ordres professionnels. Des entrevues semi-structurées et une analyse qualitative par présence ou absence de différentes caractéristiques ont permis de documenter les modalités de sécurité liées à la récolte de données en vue de l’évaluation en utilisant les TIC. Ces modalités ont été comparées à celles utilisées lors de l’utilisation du papier-crayon dans la récolte de données en vue de l’évaluation afin de voir comment elles varient lors de l’utilisation des TIC. Les résultats révèlent que l’utilisation des TIC dans la passation complexifie et ajoute des étapes à la préparation des épreuves pour assurer un niveau de sécurité adéquat. Cependant elle permet également de nouvelles fonctions en ce qui concerne le type de questions, l’intégration de multimédia, l’utilisation de questions adaptatives et la génération aléatoire de l’épreuve qui permettent de contrer certaines formes de malhonnêteté académiques déjà présentes avec l’utilisation du papier-crayon dans la passation et pour lesquelles il était difficile d’agir. Toutefois, l’utilisation des TIC dans la passation peut aussi amener de nouvelles possibilités de malhonnêteté académique. Mais si ces dernières sont bien prises en considération, l’utilisation des TIC permet un niveau de sécurité des épreuves supérieur à celui où les données sont récoltées au traditionnel papier-crayon en vue de l’évaluation.
Resumo:
Le syndrome douloureux régional complexe (SDRC) est un trouble neurologique qui se caractérise par des douleurs intenses, des troubles vasomoteurs, sudomoteurs, moteurs et trophiques, accompagnés d’un œdème au niveau du membre affecté. Malgré la présence de peu de données en faveur, à cause de l’absence d’un traitement clé du SDRC, le blocage sympathique a été utilisé depuis de nombreuses années pour traiter ce syndrome. Objectif Le but principal de ce projet est d’étudier l’effet antalgique de la néostigmine utilisée comme adjuvant à la bupivacaïne lors d’un bloc stellaire dans le traitement du syndrome douloureux régional complexe du membre supérieur. Méthodes Il s’agit d’une étude pilote, randomisée en double insu. L’intensité de la douleur a été évaluée en utilisant l’échelle numérique. La force de préhension aux deux mains a été estimée par dynamométrie de Jamar. La dextérité fine des doigts a été mesurée par le « Purdue Pegboard Test ». L’œdème au niveau de la main a été déterminé par la volumétrie. Le questionnaire « SF-36 » a été utilisé afin de déterminer l’homogénéité des échantillons. Résultats Notre étude a eu des difficultés à établir l’efficacité de la thérapie par bloc stellaire dans le traitement du syndrome douloureux régional complexe. Conclusion Notre recherche n’a pu prouver l’hypothèse que le traitement de la douleur dans le SDRC du membre supérieur par un bloc stellaire est plus efficace quand l’action de l’anesthésique local est potentialisée par l’ajout de la néostigmine.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
La douleur chronique non cancéreuse (DCNC) est un phénomène complexe et des interventions multimodales qui abordent à la fois ses dimensions biologiques et psychosociales sont considérées comme l’approche optimale pour traiter ce type de désordre. La prescription d'opioïdes pour la DCNC a augmenté d’une façon fulgurante au cours des deux dernières décennies, mais les preuves supportant l'efficacité à long terme de ce type de médicament en termes de réduction de la sévérité de la douleur et d’amélioration de la qualité de vie des patients souffrant de DCNC sont manquantes. L'objectif de cette étude était d'investiguer dans un contexte de vraie vie l'efficacité à long terme des opioïdes pour réduire l’intensité et l’impact de la douleur et améliorer la qualité de vie reliée à la santé des patients souffrant de DCNC sur une période d’une année. Méthodes: Les participants à cette étude étaient 1490 patients (âge moyen = 52,37 (écart-type = 13,9); femmes = 60,9%) enrôlés dans le Registre Québec Douleur entre octobre 2008 et Avril 2011 et qui ont complété une série de questionnaires avant d'initier un traitement dans un centre multidisciplinaire tertiaire de gestion de la douleur ainsi qu’à 6 et 12 mois plus tard. Selon leur profil d'utilisation d'opioïdes (PUO), les patients ont été classés en 1) non-utilisateurs, 2) utilisateurs non persistants, et 3) utilisateurs persistants. Les données ont été analysées à l'aide du modèle d'équation d'estimation généralisée. Résultats: Chez les utilisateurs d’opioïdes, 52% en ont cessé la prise à un moment ou à un autre pendant la période de suivi. Après ajustement pour l'âge et le sexe, le PUO a prédit d’une manière significative l’intensité de la douleur ressentie en moyenne sur des périodes de 7 jours (p <0,001) ainsi que la qualité de vie physique (pQDV) dans le temps (p <0,001). Comparés aux non-utilisateurs, les utilisateurs persistants avaient des niveaux significativement plus élevés d'intensité de douleur et une moins bonne pQDV. Une interaction significative a été trouvée entre le PUO et le temps dans la prédiction de l’intensité de douleur ressentie à son maximum (p = 0,001), les utilisateurs persistants sont ceux rapportant les scores les plus élevés à travers le temps. Une interaction significative a aussi été observée entre le PUO et le type de douleur dans la prédiction de l'impact de la douleur dans diverses sphères de la vie quotidienne (p = 0,048) et de la mQDV (p = 0,042). Indépendamment du type de douleur, les utilisateurs persistants ont rapporté des scores plus élevés d'interférence de douleur ainsi qu’une moins bonne mQDV par rapport aux non-utilisateurs. Cependant, la magnitude de ces effets était de petite taille (d de Cohen <0,5), une observation qui remet en question la puissance et la signification clinique des différences observées entre ces groupes. Conclusion: Nos résultats contribuent à maintenir les doutes sur l'efficacité d’une thérapie à long terme à base d’opioïdes et remettent ainsi en question le rôle que peut jouer ce type de médicament dans l'arsenal thérapeutique pour la gestion de la DCNC.
Resumo:
Les adultes peuvent éprouver des difficultés à discriminer des phonèmes d’une langue seconde (L2) qui ne servent pas à distinguer des items lexicaux dans leur langue maternelle (L1). Le Feature Model (FM) de Brown (1998) propose que les adultes peuvent réussir à créer des nouvelles catégories de sons seulement si celles-ci peuvent être construites à partir de traits distinctifs existant dans la L1 des auditeurs. Cette hypothèse a été testée sur plusieurs contrastes consonantiques dans différentes langues; cependant, il semble que les traits qui s’appliquent sur les voyelles n’aient jamais été examinés dans cette perspective et encore moins les traits qui opèrent à la fois dans les systèmes vocalique et consonantique et qui peuvent avoir un statut distinctif ou non-distinctif. Le principal objectif de la présente étude était de tester la validité du FM concernant le contraste vocalique oral-nasal du portugais brésilien (PB). La perception naïve du contraste /i/-/ĩ/ par des locuteurs du français, de l’anglais, de l’espagnol caribéen et de l’espagnol conservateur a été examinée, étant donné que ces quatre langues diffèrent en ce qui a trait au statut de la nasalité. De plus, la perception du contraste non-naïf /e/-/ẽ/ a été inclus afin de comparer les performances dans la perception naïve et non-naïve. Les résultats obtenus pour la discrimination naïve de /i/-/ĩ/ a permis de tirer les conclusions suivantes pour la première exposition à un contraste non natif : (1) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 peut être redéployé au sein du système vocalique, (2) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 ne peut pas être redéployé à travers les systèmes (consonne à voyelle) et (3) le trait [nasal] qui opère de façon non-distinctive dans la grammaire d’une certaine L1 peut être ou ne pas être redéployé au statut distinctif. En dernier lieu, la discrimination non-naïve de /e/-/ẽ/ a été réussie par tous les groupes, suggérant que les trois types de redéploiement s’avèrent possibles avec plus d’expérience dans la L2.
Resumo:
Objective To determine scoliosis curve types using non invasive surface acquisition, without prior knowledge from X-ray data. Methods Classification of scoliosis deformities according to curve type is used in the clinical management of scoliotic patients. In this work, we propose a robust system that can determine the scoliosis curve type from non invasive acquisition of the 3D back surface of the patients. The 3D image of the surface of the trunk is divided into patches and local geometric descriptors characterizing the back surface are computed from each patch and constitute the features. We reduce the dimensionality by using principal component analysis and retain 53 components using an overlap criterion combined with the total variance in the observed variables. In this work, a multi-class classifier is built with least-squares support vector machines (LS-SVM). The original LS-SVM formulation was modified by weighting the positive and negative samples differently and a new kernel was designed in order to achieve a robust classifier. The proposed system is validated using data from 165 patients with different scoliosis curve types. The results of our non invasive classification were compared with those obtained by an expert using X-ray images. Results The average rate of successful classification was computed using a leave-one-out cross-validation procedure. The overall accuracy of the system was 95%. As for the correct classification rates per class, we obtained 96%, 84% and 97% for the thoracic, double major and lumbar/thoracolumbar curve types, respectively. Conclusion This study shows that it is possible to find a relationship between the internal deformity and the back surface deformity in scoliosis with machine learning methods. The proposed system uses non invasive surface acquisition, which is safe for the patient as it involves no radiation. Also, the design of a specific kernel improved classification performance.
Resumo:
In this paper, a new methodology for the prediction of scoliosis curve types from non invasive acquisitions of the back surface of the trunk is proposed. One hundred and fifty-nine scoliosis patients had their back surface acquired in 3D using an optical digitizer. Each surface is then characterized by 45 local measurements of the back surface rotation. Using a semi-supervised algorithm, the classifier is trained with only 32 labeled and 58 unlabeled data. Tested on 69 new samples, the classifier succeeded in classifying correctly 87.0% of the data. After reducing the number of labeled training samples to 12, the behavior of the resulting classifier tends to be similar to the reference case where the classifier is trained only with the maximum number of available labeled data. Moreover, the addition of unlabeled data guided the classifier towards more generalizable boundaries between the classes. Those results provide a proof of feasibility for using a semi-supervised learning algorithm to train a classifier for the prediction of a scoliosis curve type, when only a few training data are labeled. This constitutes a promising clinical finding since it will allow the diagnosis and the follow-up of scoliotic deformities without exposing the patient to X-ray radiations.
Resumo:
The Schiff base, 3-hydroxyquinoxaline-2-carboxalidine-4-aminoantipyrine, was synthesized by the condensation of 3-hydroxyquinoxaline-2-carboxaldehyde with 4-aminoantipyrine. HPLC, FT-IR and NMR spectral data revealed that the compound exists predominantly in the amide tautomeric form and exhibits both absorption and fluorescence solvatochromism, large stokes shift, two electron quasireversible redox behaviour and good thermal stability, with a glass transition temperature of 104oC. The third-order non-linear optical character was studied using open aperture Z-scan methodology employing 7 ns pulses at 532 nm. The third-order non-linear absorption coefficient, b, was 1.48 x 10-6 cm W-1 and the imaginary part of the third-order non-linear optical susceptibility, Im c(3), was 3.36 x10-10 esu. The optical limiting threshold for the compound was found to be 340 MW cm-2.
Resumo:
The Schiff base, 3-hydroxyquinoxaline-2-carboxalidine-4-aminoantipyrine, was synthesized by the condensation of 3-hydroxyquinoxaline-2-carboxaldehyde with 4-aminoantipyrine. HPLC, FT-IR and NMR spectral data revealed that the compound exists predominantly in the amide tautomeric form and exhibits both absorption and fluorescence solvatochromism, large stokes shift, two electron quasireversible redox behaviour and good thermal stability, with a glass transition temperature of 104 oC. The third-order non-linear optical character was studied using open aperture Z-scan methodology employing 7 ns pulses at 532 nm. The third-order non-linear absorption coefficient, b, was 1.48 x 10-6 cm W-1 and the imaginary part of the third-order non-linear optical susceptibility, Im c(3), was 3.36x10-10 esu. The optical limiting threshold for the compound was found to be 340 MW cm-2.
Resumo:
Non-destructive testing (NDT) is the use of non-invasive techniques to determine the integrity of a material, component, or structure. Engineers and scientists use NDT in a variety of applications, including medical imaging, materials analysis, and process control.Photothermal beam deflection technique is one of the most promising NDT technologies. Tremendous R&D effort has been made for improving the efficiency and simplicity of this technique. It is a popular technique because it can probe surfaces irrespective of the size of the sample and its surroundings. This technique has been used to characterize several semiconductor materials, because of its non-destructive and non-contact evaluation strategy. Its application further extends to analysis of wide variety of materials. Instrumentation of a NDT technique is very crucial for any material analysis. Chapter two explores the various excitation sources, source modulation techniques, detection and signal processing schemes currently practised. The features of the experimental arrangement including the steps for alignment, automation, data acquisition and data analysis are explained giving due importance to details.Theoretical studies form the backbone of photothermal techniques. The outcome of a theoretical work is the foundation of an application.The reliability of the theoretical model developed and used is proven from the studies done on crystalline.The technique is applied for analysis of transport properties such as thermal diffusivity, mobility, surface recombination velocity and minority carrier life time of the material and thermal imaging of solar cell absorber layer materials like CuInS2, CuInSe2 and SnS thin films.analysis of In2S3 thin films, which are used as buffer layer material in solar cells. The various influences of film composition, chlorine and silver incorporation in this material is brought out from the measurement of transport properties and analysis of sub band gap levels.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention. Chapter six thus elucidates the theoretical aspects of application of photothermal techniques for solar cell analysis. The experimental design and method for determination of solar cell efficiency, optimum load resistance and series resistance with results from the analysis of CuInS2/In2S3 based solar cell forms the skeleton of this chapter.
Resumo:
The metals present in the surface sediments have high demand on a global perspective, and the main reservoir of these elements is believed to be the ocean floor. A lot of studies on metals are going on throughout the world for its quantification and exploitation. Even though, some preliminary attempts have been made in selected areas for the quantitative study of metals in the western continental shelf of India, no comprehensive work has been reported so far. The importance of this study also lies on the fact that there has not been a proper evaluation of the impact of the Great Tsunami of 2004 on the coastal areas of the south India. In View of this, an attempt has been made to address the seasonal distribution, behavior and mechanisms which control the deposition of metals in the sediments of the western continental shelf and Cochin Estuary, an annex to this coastal marine region.Surface sediment samples were collected seasonally from two subenvironemnts of southwest coast of India, (continental shelf of Kerala and Cochin estuarine system), to estimate the seasonal distribution and geochemical behavior of non-transition, transition, rare-earth elements, Th and U. Bottom water samples were also taken from each station, and analysed for temperature, salinity and dissolved oxygen, hence the response of redox sensitive elements to oxygen minimum zone can be addressed. In addition, other sedimentary parameters such as sand, silt, clay fractions, CaCO3 and organic carbon content were also estimated to evaluate the control factors on level of metals present in the sediment. The study used different environmental data analysis techniques to evaluate the distribution and behavior of elements during different seasons. This includes environmental parameters such as elemental normalisation, enrichment factor, element excess, cerium and europium anomalies and authigenic uranium.