956 resultados para Non-model organism
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation
Resumo:
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
The purpose of this chapter is to provide an elementary introduction to the non-renewable resource model with multiple demand curves. The theoretical literature following Hotelling (1931) assumed that all energy needs are satisfied by one type of resource (e.g. ‘oil’), extractible at different per-unit costs. This formulation implicitly assumes that all users are the same distance from each resource pool, that all users are subject to the same regulations, and that motorist users can switch as easily from liquid fossil fuels to coal as electric utilities can. These assumptions imply, as Herfindahl (1967) showed, that in competitive equilibrium all users will exhaust a lower cost resource completely before beginning to extract a higher cost resource: simultaneous extraction of different grades of oil or of oil and coal should never occur. In trying to apply the single-demand curve model during the last twenty years, several teams of authors have independently found a need to generalize it to account for users differing in their (1) location, (2) regulatory environment, or (3) resource needs. Each research team found that Herfindahl's strong, unrealistic conclusion disappears in the generalized model; in its place, a weaker Herfindahl result emerges. Since each research team focussed on a different application, however, it has not always been clear that everyone has been describing the same generalized model. Our goal is to integrate the findings of these teams and to exposit the generalized model in a form which is easily accessible.
Resumo:
Thesis written in co-mentorship with director: Nelly Huynh; co-directors: Frank Rauch and Jean-Marc Retrouvey; collaborators: Clarice Nishio, Duy-Dat Vu and Nathalie Alos
Pro-inflammatory and angiogenic activities of VEGF and angiopoietins in murine sponge/Matrigel model
Resumo:
La dérégulation de la formation et l'intégrité des vaisseaux sanguins peut conduire à un état pathologique tel qu’observé dans de nombreuses maladies ischémiques telles que: la croissance de tumeur solide, l’arthrite rhumatoïde, le psoriasis, les rétinopathies et l'athérosclérose. Par conséquent, la possibilité de moduler l'angiogenèse régionale chez les patients souffrant d'ischémie est cliniquement pertinente. Un élément clé dans l'induction de l'angiogenèse pathologique est une inflammation qui précède et accompagne la formation des nouveaux vaisseaux. Ce phénomène est démontré par l'augmentation de la perméabilité vasculaire et le recrutement de monocytes/ macrophages et cellules polynucléaires (neutrophiles). En collaboration avec d'autres groupes, nous avons montré que différents facteurs de croissance tels que le facteur de croissance endothélial vasculaire et les angiopoïétines peuvent non seulement promouvoir l'angiogenèse mais aussi induire diverses étapes connexes au processus de la réaction inflammatoire, y compris la synthèse et la libération des médiateurs inflammatoires et la migration des neutrophiles. Les objectifs de notre étude étaient d'adresser si le vascular endothelial growth factor (VEGF) et les angiopoïétines (Ang1 et Ang2) sont capables de promouvoir la formation des nouveaux vaisseaux sanguins au fil du temps et d'identifier la présence de différentes cellules inflammatoires dans ce processus. Des éponges d'alcool polyvinylique stérilisées et imbibées de Matrigel appauvri en facteur de croissance (contenant PBS, VEGF, Ang1 ou Ang2 (200 ng/200 μl)) ont été insérées sous la peau de souris C57/Bl6 anesthésiées. Les éponges ont ensuite été retirées aux jours 4, 7, 14 ou 21 après la procédure pour des analyses histologiques, immunohistologiques et cytométriques. La formation des nouveaux vaisseaux a été validée par la coloration au Trichrome de Masson et des analyses histologiques et immunohistologiques contre les cellules endothéliales (anti-CD31). De plus, la maturation des vaisseaux a été démontrée par la coloration séquentielle contre les cellules endothéliales (anti-CD31) et musculaires lisses (anti-alpha-actine). Nous avons effectué la même procédure pour caractériser le recrutement de neutrophiles (anti-MPO), et de macrophages (anti-F4/80). Afin de mieux délimiter la présence de différents sous-ensembles de leucocytes recrutés dans les éponges, nous avons utilisé une technique de cytométrie en flux sur des préparations de cellules isolées à partir de ces éponges. Nous avons observé que le VEGF et les angiopoïétines favorisent le recrutement de cellules endothéliales et la formation de nouveaux vaisseaux plus rapidement qu’en présence de PBS. Une fois formé au jour 7, ces nouveaux vaisseaux restent stables en nombre, et ne subissent pas une réorganisation importante de leur surface. Ces vaisseaux maturent grâce au recrutement et au recouvrement par les cellules musculaires lisses des néovaisseaux. En outre, le microenvironnement angiogénique est composé de cellules inflammatoires, principalement de neutrophiles, macrophages et quelques cellules de type B et T. Donc, le VEGF, l’Ang1 et l’Ang2 induisent séparément la formation et la stabilisation de nouveaux vaisseaux sanguins, ainsi que le recrutement de cellules inflammatoires avec des puissances différentes et une action temps-dépendante dans un modèle d’éponge/Matrigel.
Resumo:
Le transport actif de sodium par les cellules épithéliales alvéolaires est le principal mécanisme impliqué dans la régulation du niveau de liquide dans le poumon distal. Le canal épithélial sodique (ENaC) exprimé par les cellules épithéliales alvéolaires est essentiel à la résorption du liquide des poumons à la naissance ainsi que la résolution de l'œdème pulmonaire chez l'adulte. L'activité et l'expression du canal ENaC sont modulées par de nombreux stress pathophysiologiques. L'inflammation pulmonaire constitue un facteur important dans l'inhibition de l'expression du canal ENaC et pourrait favoriser la formation d'œdème pulmonaire. Nous avons précédemment démontré que différentes cytokines pro-inflammatoires, ainsi que les lipopolysaccharides (LPS) de Pseudomonas aeruginosa, inhibent l'expression de l'ARNm αENaC par des mécanismes de régulation transcriptionnelle et post-transcriptionnelle. Ces résultats suggèrent que les mécanismes qui modulent la stabilité des ARNm αENaC pourraient jouer un rôle important dans la régulation du niveau d’expression du transcrit en condition inflammatoire. Le principal objectif de mes travaux était de caractériser les mécanismes de modulation de l’ARNm αENaC dans les cellules épithéliales alvéolaires lors de différents stress pathophysiologiques et déterminer si cette modulation pouvait s’expliquer en partie par une régulation de la stabilité du transcrit. Mes travaux montrent que les LPS et la cycloheximide inhibent l’expression de l’ARNm αENaC de façon similaire via l’activation des voies de signalisation des MAPK ERK1/2 et p38. Cependant, les mécanismes de modulation de l’expression de l'ARNm αENaC sont différents puisque les LPS répriment la transcription du gène, alors que la cycloheximide diminuerait la stabilité du transcrit via des mécanismes post-transcriptionnels impliquant la région 3' non traduite (3'UTR) de l'ARNm αENaC. Pour mieux étudier le rôle du 3'UTR dans ce processus, nous avons développé un modèle Tet-Off nous permettant de mesurer la demi-vie de l’ARNm αENaC indépendamment de l’utilisation d’un inhibiteur de la transcription comme l'actinomycine D (Act. D). Nous avons montré que la demi-vie de l’ARNm αENaC était de 100min, un temps beaucoup plus court que celui rapporté dans la littérature. Nous avons démontré que l’Act. D a un effet stabilisateur important sur l’ARNm αENaC et qu’il ne peut être utilisé pour évaluer la stabilité du transcrit. À l’aide de différents mutants de délétion, nous avons entrepris de déterminer la nature des régions du 3’UTR impliquées dans la modulation de la stabilité du transcrit. Nous avons trouvé que le 3’UTR joue un rôle à la fois de stabilisation (région 3’UTR proximale) et de déstabilisation (région 3’UTR distale) du transcrit. Notre système nous a finalement permis de confirmer que la diminution de l’ARNm αENaC observée en présence de TNF-α s’expliquait en partie par une diminution importante de la stabilité du transcrit induite par cette cytokine. Enfin, nous avons identifié la nature des protéines pouvant se lier au 3’UTR de l’ARNm αENaC et déterminé lesquelles pouvaient moduler la stabilité du transcrit. Des trois protéines candidates trouvées, nous avons confirmé que la surexpression de DHX36 et TIAL1 diminue le niveau de transcrit par un mécanisme impliquant la stabilité du messager. Les travaux présentés ici montrent la complexité des voies de signalisation induites par différents stress sur les cellules épithéliales alvéolaires et montrent comment la stabilité de l’ARNm αENaC et en particulier, les séquences du 3’UTR jouent un rôle important dans la modulation du niveau de transcrit. Le modèle Tet-Off que nous avons développé permet d’estimer le temps de demi-vie réel de l’ARNm αENaC et montre que le 3’UTR du messager joue un rôle complexe dans la stabilisation du messager en condition de base ainsi qu’en condition pro-inflammatoire. Enfin, nous avons identifié deux protéines liant l’ARNm qui pourraient jouer un rôle important dans la modulation de la stabilité du transcrit.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.
Resumo:
Présentation: Cet article a été publié dans le journal : Computerised medical imaging and graphics (CMIG). Le but de cet article est de recaler les vertèbres extraites à partir d’images RM avec des vertèbres extraites à partir d’images RX pour des patients scoliotiques, en tenant compte des déformations non-rigides due au changement de posture entre ces deux modalités. À ces fins, une méthode de recalage à l’aide d’un modèle articulé est proposée. Cette méthode a été comparée avec un recalage rigide en calculant l’erreur sur des points de repère, ainsi qu’en calculant la différence entre l’angle de Cobb avant et après recalage. Une validation additionelle de la méthode de recalage présentée ici se trouve dans l’annexe A. Ce travail servira de première étape dans la fusion des images RM, RX et TP du tronc complet. Donc, cet article vérifie l’hypothèse 1 décrite dans la section 3.2.1.
Resumo:
A method for the construction of a patient-specific model of a scoliotic torso for surgical planning via inter- patient registration is presented. Magnetic Resonance Images (MRI) of a generic model are registered to surface topography (TP) and X-ray data of a test patient. A partial model is first obtained via thin-plate spline registration between TP and X-ray data of the test patient. The MRIs from the generic model are then fit into the test patient using articulated model registration between the vertebrae of the generic model’s MRIs in prone position and the test patient’s X-rays in standing position. A non-rigid deformation of the soft tissues is performed using a modified thin-plate spline constrained to maintain bone rigidity and to fit in the space between the vertebrae and the surface of the torso. Results show average Dice values of 0.975 ± 0.012 between the MRIs following inter-patient registration and the surface topography of the test patient, which is comparable to the average value of 0.976 ± 0.009 previously obtained following intra-patient registration. The results also show a significant improvement compared to rigid inter-patient registration. Future work includes validating the method on a larger cohort of patients and incorporating soft tissue stiffness constraints. The method developed can be used to obtain a geometric model of a patient including bone structures, soft tissues and the surface of the torso which can be incorporated in a surgical simulator in order to better predict the outcome of scoliosis surgery, even if MRI data cannot be acquired for the patient.
Resumo:
Les adultes peuvent éprouver des difficultés à discriminer des phonèmes d’une langue seconde (L2) qui ne servent pas à distinguer des items lexicaux dans leur langue maternelle (L1). Le Feature Model (FM) de Brown (1998) propose que les adultes peuvent réussir à créer des nouvelles catégories de sons seulement si celles-ci peuvent être construites à partir de traits distinctifs existant dans la L1 des auditeurs. Cette hypothèse a été testée sur plusieurs contrastes consonantiques dans différentes langues; cependant, il semble que les traits qui s’appliquent sur les voyelles n’aient jamais été examinés dans cette perspective et encore moins les traits qui opèrent à la fois dans les systèmes vocalique et consonantique et qui peuvent avoir un statut distinctif ou non-distinctif. Le principal objectif de la présente étude était de tester la validité du FM concernant le contraste vocalique oral-nasal du portugais brésilien (PB). La perception naïve du contraste /i/-/ĩ/ par des locuteurs du français, de l’anglais, de l’espagnol caribéen et de l’espagnol conservateur a été examinée, étant donné que ces quatre langues diffèrent en ce qui a trait au statut de la nasalité. De plus, la perception du contraste non-naïf /e/-/ẽ/ a été inclus afin de comparer les performances dans la perception naïve et non-naïve. Les résultats obtenus pour la discrimination naïve de /i/-/ĩ/ a permis de tirer les conclusions suivantes pour la première exposition à un contraste non natif : (1) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 peut être redéployé au sein du système vocalique, (2) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 ne peut pas être redéployé à travers les systèmes (consonne à voyelle) et (3) le trait [nasal] qui opère de façon non-distinctive dans la grammaire d’une certaine L1 peut être ou ne pas être redéployé au statut distinctif. En dernier lieu, la discrimination non-naïve de /e/-/ẽ/ a été réussie par tous les groupes, suggérant que les trois types de redéploiement s’avèrent possibles avec plus d’expérience dans la L2.
Resumo:
Non-destructive testing (NDT) is the use of non-invasive techniques to determine the integrity of a material, component, or structure. Engineers and scientists use NDT in a variety of applications, including medical imaging, materials analysis, and process control.Photothermal beam deflection technique is one of the most promising NDT technologies. Tremendous R&D effort has been made for improving the efficiency and simplicity of this technique. It is a popular technique because it can probe surfaces irrespective of the size of the sample and its surroundings. This technique has been used to characterize several semiconductor materials, because of its non-destructive and non-contact evaluation strategy. Its application further extends to analysis of wide variety of materials. Instrumentation of a NDT technique is very crucial for any material analysis. Chapter two explores the various excitation sources, source modulation techniques, detection and signal processing schemes currently practised. The features of the experimental arrangement including the steps for alignment, automation, data acquisition and data analysis are explained giving due importance to details.Theoretical studies form the backbone of photothermal techniques. The outcome of a theoretical work is the foundation of an application.The reliability of the theoretical model developed and used is proven from the studies done on crystalline.The technique is applied for analysis of transport properties such as thermal diffusivity, mobility, surface recombination velocity and minority carrier life time of the material and thermal imaging of solar cell absorber layer materials like CuInS2, CuInSe2 and SnS thin films.analysis of In2S3 thin films, which are used as buffer layer material in solar cells. The various influences of film composition, chlorine and silver incorporation in this material is brought out from the measurement of transport properties and analysis of sub band gap levels.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention. Chapter six thus elucidates the theoretical aspects of application of photothermal techniques for solar cell analysis. The experimental design and method for determination of solar cell efficiency, optimum load resistance and series resistance with results from the analysis of CuInS2/In2S3 based solar cell forms the skeleton of this chapter.
Resumo:
In this paper we try to fit a threshold autoregressive (TAR) model to time series data of monthly coconut oil prices at Cochin market. The procedure proposed by Tsay [7] for fitting the TAR model is briefly presented. The fitted model is compared with a simple autoregressive (AR) model. The results are in favour of TAR process. Thus the monthly coconut oil prices exhibit a type of non-linearity which can be accounted for by a threshold model.
Resumo:
In this thesis the author has presented qualitative studies of certain Kdv equations with variable coefficients. The well-known KdV equation is a model for waves propagating on the surface of shallow water of constant depth. This model is considered as fitting into waves reaching the shore. Renewed attempts have led to the derivation of KdV type equations in which the coefficients are not constants. Johnson's equation is one such equation. The researcher has used this model to study the interaction of waves. It has been found that three-wave interaction is possible, there is transfer of energy between the waves and the energy is not conserved during interaction.