940 resultados para Offset Paraboloidal reflectors
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.
Resumo:
Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.
Resumo:
Ce mémoire évalue l’efficacité de Housing First (HF) sur la stabilité résidentielle de personnes itinérantes ayant des troubles mentaux et son rapport coût-efficacité différentiel (RCED) sous une perspective sociétale. Une étude à répartition aléatoire (n=469) comparant HF avec les services usuels (SU) a été réalisée à Montréal, Canada. Des questionnaires ont été distribués à intervalles de 3- et 6- mois pendant 24 mois. Le temps passé en logement stable est passé de 6,44% à 62,21% pour les HF ayant des besoins élevés vs. 6,64% à 23,34% chez leurs homologues SU. Les pourcentages correspondants des participants ayant des besoins modérés sont de 12,13% à 79,58% pour HF vs. 6,45% à 34,01% pour SU. Le coût total des participants ayant des besoins élevés est de 73 301$/an pour HF vs. 64 715$/an pour SU (RCED=49,85$/jour); celui des participants ayant des besoins modérés est de 47 746$/an pour HF vs. 46 437$/an pour SU (RCED=3,65$/jour). Les diminutions de coûts associées à HF ont compensé une partie importante des coûts de l’intervention.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La baisse de la fécondité permet aux couples d'investir davantage dans la scolarité de chacun de leurs enfants (évidence dans les pays occidentaux, d’Asie et d’Amérique latine). Ce postulat est l’un des arguments clés des politiques de planification familiale en Afrique subsaharienne. Pourtant, la plupart des études sur l'Afrique ont trouvé une corrélation nulle ou même une relation positive entre le nombre d'enfants dans un ménage et leur niveau de scolarité. Ces résultats mitigés sont généralement expliqués par des solidarités familiales et des transferts de ressources qui pourraient réduire la pression occasionnée par une descendance nombreuse sur les ressources du ménage, et des problèmes méthodologiques inhérents à plusieurs recherches sur la région. L’objectif principal de cette thèse était d’apporter une contribution à une meilleure compréhension des aspects méthodologiques et substantiels relatifs aux liens entre fécondité et scolarisation. Spécifiquement, la thèse visait à évaluer 1) le rôle des réseaux familiaux dans la scolarisation des enfants, 2) la simultanéité des décisions portant sur le nombre d’enfants et leur scolarisation, 3) l’impact causal du nombre d’enfants sur leur scolarisation, et 4) à comprendre les perceptions des parents sur l’école et les coûts et bénéfices de l’éducation des enfants, et dans quelle mesure ces perceptions sont prises en compte dans leurs stratégies reproductives. Quatre articles ont été rédigés en utilisant quatre sources de données complémentaires : l’Observatoire de population de Ouagadougou (OPO), l’enquête Demtrend, l’enquête santé de base et une enquête qualitative, toutes adossées à l’OPO. Dans le premier article, il est ressorti que les familles de grande taille bénéficient d’un appui plus fréquent des réseaux familiaux pour la scolarisation. De plus, les réseaux familiaux seraient en mesure de compenser l’effet négatif d’un nombre élevé d’enfants sur la scolarisation, mais seulement pour une partie de la population qui exclut les plus pauvres. Ainsi, les solidarités familiales de soutien à la scolarisation des enfants sont loin d’être généralisées. Le deuxième article a montré que les enfants dont les mères ont intentionnellement limité leur fécondité avaient de meilleures chances de scolarisation que ceux dont les mères ont connu des problèmes d’infécondité secondaire et n’ont pas atteint leur nombre d’enfants désiré. Par conséquent, les aspirations scolaires ne sont pas indépendantes des décisions de fécondité et l’hypothèse de fécondité naturelle n’est plus tenable dans ce contexte. Le troisième article a révélé, contrairement à la plupart des études antérieures sur l’Afrique subsaharienne, un effet négatif net de la taille de la fratrie sur le niveau d’éducation atteint des enfants, effet qui se renforce d’ailleurs au fur et à mesure que l’on avance dans le système éducatif. Dans le quatrième article, le discours des participants à l’enquête qualitative a indiqué que l’émergence de cette relation négative entre le nombre d’enfants et leur scolarisation dans les quartiers périphériques de Ouagadougou est intimement liée aux changements dans les coûts et bénéfices de l’éducation des enfants qui font reposer dorénavant de façon presque exclusive les dépenses scolaires sur les parents biologiques.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
In recent years scientists have made rapid and significant advances in the field of semiconductor physics. One of the most important fields of current interest in materials science is the fundamental aspects and applications of conducting transparent oxide thin films (TCO). The characteristic properties of such coatings are low electrical resistivity and high transparency in the visible region. The first semitransparent and electrically conducting CdO film was reported as early as in 1907 [1]. Though early work on these films was performed out of purely scientific interest, substantial technological advances in such films were made after 1940. The technological interest in the study of transparent semiconducting films was generated mainly due to the potential applications of these materials both in industry and research. Such films demonstrated their utility as transparent electrical heaters for windscreens in the aircraft industry. However, during the last decade, these conducting transparent films have been widely used in a variety of other applications such as gas sensors [2], solar cells [3], heat reflectors [4], light emitting devices [5] and laser damage resistant coatings in high power laser technology [6]. Just a few materials dominate the current TCO industry and the two dominant markets for TCO’s are in architectural applications and flat panel displays. The architectural use of TCO is for energy efficient windows. Fluorine doped tin oxide (FTO), deposited using a pyrolysis process is the TCO usually finds maximum application. SnO2 also finds application ad coatings for windows, which are efficient in preventing radiative heat loss, due to low emissivity (0.16). Pyrolitic tin oxide is used in PV modules, touch screens and plasma displays. However indium tin oxide (ITO) is mostly used in the majority of flat panel display (FPD) applications. In FPDs, the basic function of ITO is as transparent electrodes. The volume of FPD’s produced, and hence the volume of ITO coatings produced, continues to grow rapidly. But the current increase in the cost of indium and the scarcity of this material created the difficulty in obtaining low cost TCOs. Hence search for alternative TCO materials has been a topic of active research for the last few decades. This resulted in the development of binary materials like ZnO, SnO2, CdO and ternary materials like II Zn2SnO4, CdSb2O6:Y, ZnSO3, GaInO3 etc. The use of multicomponent oxide materials makes it possible to have TCO films suitable for specialized applications because by altering their chemical compositions, one can control the electrical, optical, chemical and physical properties. But the advantages of using binary materials are the easiness to control the chemical compositions and depositions conditions. Recently, there were reports claiming the deposition of CdO:In films with a resistivity of the order of 10-5 ohm cm for flat panel displays and solar cells. However they find limited use because of Cd-Toxicity. In this regard, ZnO films developed in 1980s, are very useful as these use Zn, an abundant, inexpensive and nontoxic material. Resistivity of this material is still not very low, but can be reduced through doping with group-III elements like In, Al or Ga or with F [6]. Hence there is a great interest in ZnO as an alternative of ITO. In the present study, we prepared and characterized transparent and conducting ZnO thin films, using a cost effective technique viz Chemical Spray Pyrolysis (CSP). This technique is also suitable for large area film deposition. It involves spraying a solution, (usually aqueous) containing soluble salts of the constituents of the desired compound, onto a heated substrate.
Resumo:
Dopamine D2 receptors are involved in ethanol self- administration behavior and also suggested to mediate the onset and offset of ethanol drinking. In the present study, we investigated dopamine (DA) content and Dopamine D2 (DA D2) receptors in the hypothalamus and corpus striatum of ethanol treated rats and aldehyde dehydrogenase (ALDH) activity in the liver and plasma of ethanol treated rats and in vitro hepatocyte cultures. Hypothalamic and corpus striatal DA content decreased significantly (P\0.05, P\0.001 respectively) and homovanillic acid/ dopamine (HVA/DA) ratio increased significantly (P\0.001) in ethanol treated rats when compared to control. Scatchard analysis of [3H] YM-09151-2 binding to DA D2 receptors in hypothalamus showed a significant increase (P\0.001) in Bmax without any change in Kd in ethanol treated rats compared to control. The Kd of DA D2 receptors significantly decreased (P\0.05) in the corpus striatum of ethanol treated rats when compared to control. DA D2 receptor affinity in the hypothalamus and corpus striatum of control and ethanol treated rats fitted to a single site model with unity as Hill slope value. The in vitro studies on hepatocyte cultures showed that 10-5 M and 10-7 M DA can reverse the increased ALDH activity in 10% ethanol treated cells to near control level. Sulpiride, an antagonist of DA D2, reversed the effect of dopamine on 10% ethanol induced ALDH activity in hepatocytes. Our results showed a decreased dopamine concentration with enhanced DA D2 receptors in the hypothalamus and corpus striatum of ethanol treated rats. Also, increased ALDH was observed in the plasma and liver of ethanol treated rats and in vitro hepatocyte cultures with 10% ethanol as a compensatory mechanism for increased aldehyde production due to increased dopamine metabolism. A decrease in dopamine concentration in major brain regions is coupled with an increase in ALDH activity in liver and plasma, which contributes to the tendency for alcoholism. Since the administration of 10-5 M and 10-7 M DA can reverse the increased ALDH activity in ethanol treated cells to near control level, this has therapeutic application to correct ethanol addicts from addiction due to allergic reaction observed in aldehyde accumulation.
Resumo:
In this paper, we report the in-plane and cross-plane measurements of the thermal diffusivity of double epitaxial layers of n-type GaAs doped with various concentrations of Si and a p-type Be-doped GaAs layer grown on a GaAs substrate by the molecular beam epitaxial method, using the laser-induced nondestructive photothermal deflection technique. The thermal diffusivity value is evaluated from the slope of the graph of the phase of the photothermal deflection signal as a function of pump-probe offset. Analysis of the data shows that the cross-plane thermal diffusivity is less than that of the in-plane thermal diffusivity. It is also seen that the doping concentration has a great influence on the thermal diffusivity value. Measurement of p-type Be-doped samples shows that the nature of the dopant also influences the effective thermal diffusivity value. The results are interpreted in terms of a phonon-assisted heat transfer mechanism and the various scattering process involved in the propagation of phonons.
Resumo:
In this paper, we report the in-plane and cross-plane measurements of the thermal diffusivity of double epitaxial layers of n-type GaAs doped with various concentrations of Si and a p-type Be-doped GaAs layer grown on a GaAs substrate by the molecular beam epitaxial method, using the laser-induced nondestructive photothermal deflection technique. The thermal diffusivity value is evaluated from the slope of the graph of the phase of the photothermal deflection signal as a function of pump-probe offset. Analysis of the data shows that the cross-plane thermal diffusivity is less than that of the in-plane thermal diffusivity. It is also seen that the doping concentration has a great influence on the thermal diffusivity value. Measurement of p-type Be-doped samples shows that the nature of the dopant also influences the effective thermal diffusivity value. The results are interpreted in terms of a phonon-assisted heat transfer mechanism and the various scattering process involved in the propagation of phonons
Resumo:
In this paper, we report the in-plane and cross-plane measurements of the thermal diffusivity of double epitaxial layers of n-type GaAs doped with various concentrations of Si and a p-type Be-doped GaAs layer grown on a GaAs substrate by the molecular beam epitaxial method, using the laser-induced nondestructive photothermal deflection technique. The thermal diffusivity value is evaluated from the slope of the graph of the phase of the photothermal deflection signal as a function of pump-probe offset. Analysis of the data shows that the cross-plane thermal diffusivity is less than that of the in-plane thermal diffusivity. It is also seen that the doping concentration has a great influence on the thermal diffusivity value. Measurement of p-type Be-doped samples shows that the nature of the dopant also influences the effective thermal diffusivity value. The results are interpreted in terms of a phonon-assisted heat transfer mechanism and the various scattering process involved in the propagation of phonons
Resumo:
Laser induced transverse photothermal deflection technique has been employed to determine the thermal parameters of InP doped with Sn, S and Fe as well as intrinsic InP. The thermal diffusivity values of these various samples are evaluated from the slope of the curve plotted between the phase of photothermal deflection signal and pump-probe offset. Analysis of the data shows that heat transport and hence the thermal diffusivity value, is greatly affected by the introduction of dopant. It is also seen that the direction of heat flow with respect to the plane of cleavage of semiconductor wafers influences the thermal diffusivity value. The results are explained in terms of dominating phonon assisted heat transfer mechanism in semiconductors.
Resumo:
The coplanar wave guide is an attractive device in microwave integrated circuits due to its uniplanar nature, ease of fabrication and low production cost. Several attempts are already done to explore the radiating modes in coplanar wave guide transmission lines. Usually coplanar wave guides are excited by an SMA connector with its centre conductor connected to the exact middle of the centre strip and the outer ground conductor to the two ground strips. The mode excited on it is purely a bound mode. The E-field distribution in the two slots are out of phase and there for cancels at the far field. This thesis addresses an attempt to excite an in phase E-field distribution in the two slots of the co planar wave guide by employing a feed asymmetry, in order to get radiation from the two large slot discontinuities of the coplanar waveguide. The omni directional distribution of the radiating energy can be achieved by widening the centre strip.The first part of the thesis deals with the investigations on the resonance phenomena of conventional coplanar waveguides at higher frequency bands. Then an offset fed open circuited coplanar waveguide supporting resonance/radiation phenomena is analyzed. Finally, a novel compact co planar antenna geometry with dual band characteristics, suitable for mobile terminal applications is designed and characterized using the inferences from the above study.
Resumo:
Effective use of fractal-based metallo-dielectric structures for enhancing the radar cross-section (RCS) of dihedral corner reflectors is reported. RCS enhancement of about 30 dBsm is obtained for corner reflectors with corner angles other than 90deg. This may find application in remote sensing and synthetic aperture radar.