874 resultados para Rubin, Anita


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Les femmes travailleuses du sexe (TS) constituent la population le plus à risque d’infection au VIH dans différents pays d’Afrique subsaharienne. Plusieurs interventions y ont ainsi été menées pour réduire le risque d’infection en influant sur les facteurs de risque. Parmi ces interventions, on peut citer la promotion de l’utilisation du préservatif de même que le dépistage et le traitement des infections sexuellement transmissibles (IST). Cependant, certaines composantes sont peu représentées dans ce panel d’interventions offertes aux femmes TS. Le conseil dépistage volontaire pourrait s’avérer une intervention utile de prévention primaire et secondaire pour cette population mais son acceptabilité est mal connue. Par ailleurs, en termes de surveillance de l’épidémie, l’évaluation de la validité de l’auto-rapport d’utilisation du préservatif, indicateur fréquemment utilisé lors d’enquêtes populationnelles serait souhaitable. Enfin, pour ce qui est de la prévention de l’infection dans cette population, l’effet du désir d’enfant sur l’utilisation non systématique du condom avec le principal partenaire régulier non payant est peu connu. Il en est de même pour la prévalence de certaines IST comme le VPH-16 et l’effet combiné de facteurs sociodémographiques, comportementaux et préventifs sur la présence de ces IST. Objectifs : Les objectifs de cette thèse sont 1) de mesurer l’acceptabilité et les conséquences du conseil dépistage volontaire du VIH chez les femmes TS de Conakry en Guinée; 2) d’évaluer la validité de l’auto-rapport de l’utilisation du préservatif dans cette population grâce à un indicateur biologique de présence de sperme, l’antigène spécifique de la prostate (PSA); 3) d’estimer la fréquence d’utilisation systématique du préservatif avec les partenaires clients et non-clients des femmes TS et d’étudier l’importance du désir d’enfant dans l’utilisation non systématique du préservatif avec le principal partenaire régulier non-client et 4) de mesurer la prévalence des IST et du VIH et d’étudier les facteurs sociodémographiques, comportementaux et préventifs qui y sont associés. Méthodologie : Nous avons mené une étude longitudinale dans la ville de Conakry en Guinée auprès de 421 femmes TS recrutées dans trois services de santé adaptés pour elles. Un devis mixte répété un an plus tard a permis de collecter des données quantitatives et qualitatives. Des analyses biologiques de dépistage des IST et du VIH ont été effectuées. Résultats : Le premier article de résultats présenté dans cette thèse montre que l’acceptabilité du conseil dépistage volontaire est élevée chez les femmes TS. En effet, les taux d’acceptation du test, de retour pour la prise de résultats et de notification du statut sérologique avoisinaient les 100%. Cette acceptabilité semblait être le fait d’une perception de risque d’infection élevé, mais aussi d’une pression sociale du milieu prostitutionnel pour effectuer le dépistage et révéler le statut sérologique. Les conséquences négatives au dépistage étaient rares. Le deuxième article montre que l’auto-rapport de l’usage récent du préservatif a une très faible sensibilité lorsque comparé à l’étalon d’or que constitue la PSA. Ainsi, la plupart des personnes chez qui la PSA était retrouvée ne rapportaient aucun rapport non protégé récent. La discordance entre l’auto-rapport d’utilisation récente du préservatif et la présence de PSA était associée à une perception de risque d’infection au VIH élevé. Enfin, la troisième section montre que si l’utilisation systématique du préservatif était très fréquente avec les clients, elle l’est beaucoup moins avec le principal partenaire régulier non-client. Le désir d’enfant de la femme TS contribue de manière significative à l’utilisation non systématique du condom avec ce type de partenaire. Des facteurs sociodémographiques, comportementaux et la coinfection par d’autres IST sont associés à la présence d’IST/VIH, ces dernières étant fréquentes dans la population des femmes TS malgré les nombreuses interventions qui y sont menées. Conclusion : En conclusion, l’on peut dire que la prévention du VIH chez les femmes TS constitue un défi nécessitant des interventions intégrées tenant compte du contexte commercial dans lequel ces interventions sont implantées et des aspirations des femmes TS en matière de reproduction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage par projet est une méthode pédagogique importante dans le réseau des cégeps, particulièrement depuis la Réforme scolaire collégiale de 1993 (Piché & Lapostolle, 2009). Toutefois, la quantité d’études sur les conditions d’efficacité de cette méthode pédagogique, particulièrement les études longitudinales, est limitée dans le milieu collégial. La présente étude analyse le rôle de plusieurs variables issues de la recherche en psychologie organisationnelle. D’abord, on considère le rôle de deux variables de personnalité affectées par la complexité d’une tâche : l’orientation envers les buts (Dweck & Leggett, 1988) et le style de gestion des conflits (Rubin, Pruitt, & Kim, 1994). Deux variables processuelles sont aussi étudiées : les types de conflits (Jehn 1995, 1997) et la proactivité (Griffin, Neale, & Parker, 2007). À l’aide d’analyses de médiation (Preacher & Hayes, 2008), les résultats démontrent que les orientations envers les buts et les styles de gestion des conflits utiles aux tâches complexes le sont également dans un contexte de projet au collégial, favorisant la proactivité des étudiants. Pour les types de conflits, un examen de leur évolution dans le temps permet de conclure à un effet généralement négatif en raison de la forte association entre eux. Une explication possible est la présence de mésattribution (Simons & Peterson, 2000), c’est-à-dire que les conflits reliés à la tâche sont faussement interprétés comme des conflits interpersonnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Étudier l’association entre la consommation de café, la consommation de thé noir et le risque de cancer du poumon. Méthodologie: Cette recherche utilise les données obtenues lors d’une étude cas-témoin effectuée à Montréal avec des résidents canadiens âgés entre 35 et 75 ans recrutés entre 1996 et 2001. Les cas étaient des individus atteints du cancer et diagnostiqués entre 1996 et 1997 dans l’un des 18 hôpitaux de la région du Grand-Montréal. Les contrôles on été sélectionnés à partir de la liste électorale et appariés selon la fréquence de distribution des cas par groupe d’âge de 5 ans, par sexe et par district électoral. Au total, 1130 cas et 1484 contrôles ont été inclus dans cette étude. Les rapports de cote (RC) et les intervalles de confiance de 95% (CI) des associations entre la consommation de thé noir, de café et le cancer du poumon ont été estimés à l’aide de la régression logistique non conditionnelle. Quatre aspects de la consommation ont été analysés dans des modèles multivariés distincts: la fréquence de consommation, la consommation journalière moyenne, la durée de consommation et la consommation cumulative. Les covariables potentielles considérées incluaient : l’âge, le sexe, l’historique de tabagisme, le statut du répondant, l’ethnicité, la consommation d’alcool, la consommation de fruit et de légume, l’apport énergétique journalier, l’exposition a des agents professionnelle et les variables socio-économiques . Des analyses secondaires par le sexe, le tabagisme et le type histologique de cancer on été effectuées. Résultats : Aucune association statistiquement significative n’a été observée entre la consommation de thé noir et le cancer du poumon. Nos résultats suggèrent qu’une consommation de ≥ 50 ans était associée avec une augmentation du risque d’adénocarcinome comparée à aucune consommation. Nous avons observé une association inverse statistiquement significative entre la consommation occasionnelle de café et le cancer du poumon (RC : 0.32, 95%CI : 0.17-0.59). La durée de consommation de café n’était pas associée avec le cancer du poumon. Conclusion : Nos résultats suggèrent que la consommation à long terme de thé noir pourrait augmenter le risque d’adénocarcinome. D’un autre côté, la consommation occasionnelle de café pourrait réduire le risque de cancer du poumon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nature iconoclaste de l'ère postmoderne se manifeste dans une révolution contre les normes littéraires préétablies. Cet iconoclasme est plus flagrant dans la fantaisie urbaine. Dans un environnement désordonné, fragmenté et très stéréotypé, la fantaisie urbaine est considérée comme un événement qui défie tout jugement, et toute stratification sociale. Bien qu'elle ait été bien accueillie par les lecteurs et qu'elle a obtenue de fortes ventes, c'est seulement depuis deux décennies que ces genres ont commencé à attirer l'attention académique. Ce travail peut être considéré comme une tentative pour comprendre la fantaisie urbaine à travers la série d'une de ses écrivains les plus éminents, Laurell K. Hamilton. En conséquence, j’ai choisi trois romans de sa série Anita Blake: Guilty Pleasures (1993), Circus of the Damned (1995) et Blue Moon (1998). Les paramètres stylistiques et thématiques dans ses romans créent une philosophie postmoderne de subversion, qui valide et invalide les discussions sur la structure du signe, la violence, et la réaction du lecteur. Le premier chapitre étudie la construction du sens à travers la structure de la langue de la fantaisie urbaine. Il traite la signification que le résultat de l'interaction entre les différents signes linguistiques. Il suit également l'évolution de ce que Derrida appelle «inflated signs», qui sont au coeur de la régénération du sens à travers les romans. La saturation dans ces signes implique une «absence» qui s'affiche à travers la désintégration du système de la langue et les ruptures récurrentes de sa structure globale. Le deuxième chapitre se concentre sur les tendances de la violence dans les romans de la fantaisie urbaine qui rendent les jeux de pouvoir des personnages truculents et leurs réactions apparaissent inadmissibles. Il examine la violence par rapport à ses causes et sa ii logique. Grâce aux concepts de Derrida de l’‘arché-violence’, de ‘décision’ et de ‘sacrifice,’ je démontre que la violence est inévitable dans le monde créé de Hamilton et dans le monde qu'elle simule. Le troisième chapitre examine la réaction du lecteur sur les événements exotiques et la caractérisation paranormale des romans de Hamilton. Il révèle comment la fantaisie urbaine conteste la conception de Wolfgang Iser de réaction du lecteur et le concept d'‘apparence’ de Jean Baudrillard. J’insiste sur le fait que les lecteurs de la fantaisie urbaine ne sont plus des interprètes ou des réceptifs passifs d'images paranormaux. En effet, l'interaction entre l’auteur et le lecteur, que ces romans entrainent, défie ces conceptions réductrices de la réaction du lecteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: La régurgitation mitrale (RM) est une maladie valvulaire nécessitant une intervention dans les cas les plus grave. Une réparation percutanée de la valve mitrale avec le dispositif MitraClip est un traitement sécuritaire et efficace pour les patients à haut risque chirurgical. Nous voulons évaluer les résultats cliniques et l'impact économique de cette thérapie par rapport à la gestion médicale des patients en insuffisance cardiaque avec insuffisance mitrale symptomatique. Méthodes: L'étude a été composée de deux phases; une étude d'observation de patients souffrant d'insuffisance cardiaque et de régurgitation mitrale traitée avec une thérapie médicale ou le MitraClip, et un modèle économique. Les résultats de l'étude observationnelle ont été utilisés pour estimer les paramètres du modèle de décision, qui a estimé les coûts et les avantages d'une cohorte hypothétique de patients atteints d'insuffisance cardiaque et insuffisance mitrale sévère traitée avec soit un traitement médical standard ou MitraClip. Résultats: La cohorte de patients traités avec le système MitraClip était appariée par score de propension à une population de patients atteints d'insuffisance cardiaque, et leurs résultats ont été comparés. Avec un suivi moyen de 22 mois, la mortalité était de 21% dans la cohorte MitraClip et de 42% dans la cohorte de gestion médicale (p = 0,007). Le modèle de décision a démontré que MitraClip augmente l'espérance de vie de 1,87 à 3,60 années et des années de vie pondérées par la qualité (QALY) de 1,13 à 2,76 ans. Le coût marginal était 52.500 $ dollars canadiens, correspondant à un rapport coût-efficacité différentiel (RCED) de 32,300.00 $ par QALY gagné. Les résultats étaient sensibles à l'avantage de survie. Conclusion: Dans cette cohorte de patients atteints d'insuffisance cardiaque symptomatique et d insuffisance mitrale significative, la thérapie avec le MitraClip est associée à une survie supérieure et est rentable par rapport au traitement médical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Non-destructive testing (NDT) is the use of non-invasive techniques to determine the integrity of a material, component, or structure. Engineers and scientists use NDT in a variety of applications, including medical imaging, materials analysis, and process control.Photothermal beam deflection technique is one of the most promising NDT technologies. Tremendous R&D effort has been made for improving the efficiency and simplicity of this technique. It is a popular technique because it can probe surfaces irrespective of the size of the sample and its surroundings. This technique has been used to characterize several semiconductor materials, because of its non-destructive and non-contact evaluation strategy. Its application further extends to analysis of wide variety of materials. Instrumentation of a NDT technique is very crucial for any material analysis. Chapter two explores the various excitation sources, source modulation techniques, detection and signal processing schemes currently practised. The features of the experimental arrangement including the steps for alignment, automation, data acquisition and data analysis are explained giving due importance to details.Theoretical studies form the backbone of photothermal techniques. The outcome of a theoretical work is the foundation of an application.The reliability of the theoretical model developed and used is proven from the studies done on crystalline.The technique is applied for analysis of transport properties such as thermal diffusivity, mobility, surface recombination velocity and minority carrier life time of the material and thermal imaging of solar cell absorber layer materials like CuInS2, CuInSe2 and SnS thin films.analysis of In2S3 thin films, which are used as buffer layer material in solar cells. The various influences of film composition, chlorine and silver incorporation in this material is brought out from the measurement of transport properties and analysis of sub band gap levels.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention.The application of photothermal deflection technique for characterization of solar cells is a relatively new area that requires considerable attention. Chapter six thus elucidates the theoretical aspects of application of photothermal techniques for solar cell analysis. The experimental design and method for determination of solar cell efficiency, optimum load resistance and series resistance with results from the analysis of CuInS2/In2S3 based solar cell forms the skeleton of this chapter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Photothermal deflection technique (PTD) is a non-destructive tool for measuring the temperature distribution in and around a sample, due to various non-radiative decay processes occurring within the material. This tool was used to measure the carrier transport properties of CuInS2 and CuInSe2 thin films. Films with thickness <1 μm were prepared with different Cu/In ratios to vary the electrical properties. The surface recombination velocity was least for Cu-rich films (5×105 cm/s for CuInS2, 1×103 cm/s for CuInSe2), while stoichiometric films exhibited high mobility (0.6 cm2/V s for CuInS2, 32 cm2/V s for CuInSe2) and high minority carrier lifetime (0.35 μs for CuInS2, 12 μs for CuInSe2

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SnS thin films were prepared using automated chemical spray pyrolysis (CSP) technique. Single-phase, p-type, stoichiometric, SnS films with direct band gap of 1.33 eV and having very high absorption coefficient (N105/cm) were deposited at substrate temperature of 375 °C. The role of substrate temperature in determining the optoelectronic and structural properties of SnS films was established and concentration ratios of anionic and cationic precursor solutions were optimized. n-type SnS samples were also prepared using CSP technique at the same substrate temperature of 375 °C, which facilitates sequential deposition of SnS homojunction. A comprehensive analysis of both types of films was done using x-ray diffraction, energy dispersive x-ray analysis, scanning electron microscopy, atomic force microscopy, optical absorption and electrical measurements. Deposition temperatures required for growth of other binary sulfide phases of tin such as SnS2, Sn2S3 were also determined

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study, a novel improved technology could be developed to convert the recalcitrant coir pith into environmental friendly organic manure. The standard method of composting involves the substitution of urea with nitrogen fixing bacteria viz. Azotobacter vinelandii and Azospirillum brasilense leading to the development of an improved method of coir pith. The combined action of the microorganisms could enhance the biodegradation of coir pith. In the present study, Pleurotus sajor caju, an edible mushroom which has the ability to degrade coir pith, and the addition of nitrogen fixing bacteria like Azotobacter vinelandii and Azospirillum brasilense could accelerate the action of the fungi on coir pith. The use of these microorganisms brings about definite changes in the NPK, Ammonia, Organic Carbon and Lignin contents in coir pith. This study will encourage the use of biodegraded coir pith as organic manure for agri/horti purpose to get better yields and can serve as a better technology to solve the problem of accumulated coir pith in coir based industries

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This report describes development of micro-fabricated piezoelectric ultrasonic motors and bulk-ceramic piezoelectric ultrasonic motors. Ultrasonic motors offer the advantage of low speed, high torque operation without the need for gears. They can be made compact and lightweight and provide a holding torque in the absence of applied power, due to the traveling wave frictional coupling mechanism between the rotor and the stator. This report covers modeling, simulation, fabrication and testing of ultrasonic motors. Design of experiments methods were also utilized to find optimal motor parameters. A suite of 8 mm diameter x 3 mm tall motors were machined for these studies and maximum stall torques as large as 10^(- 3) Nm, maximum no-load speeds of 1710 rpm and peak power outputs of 27 mW were realized. Aditionally, this report describes the implementation of a microfabricated ultrasonic motor using thin-film lead zirconate titanate. In a joint project with the Pennsylvania State University Materials Research Laboratory and MIT Lincoln Laboratory, 2 mm and 5 mm diameter stator structures were fabricated on 1 micron thick silicon nitride membranes. Small glass lenses placed down on top spun at 100-300 rpm with 4 V excitation at 90 kHz. The large power densities and stall torques of these piezoelectric ultrasonic motors offer tremendous promis for integrated machines: complete intelligent, electro-mechanical autonomous systems mass-produced in a single fabrication process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Real-world learning tasks often involve high-dimensional data sets with complex patterns of missing features. In this paper we review the problem of learning from incomplete data from two statistical perspectives---the likelihood-based and the Bayesian. The goal is two-fold: to place current neural network approaches to missing data within a statistical framework, and to describe a set of algorithms, derived from the likelihood-based framework, that handle clustering, classification, and function approximation from incomplete data in a principled and efficient manner. These algorithms are based on mixture modeling and make two distinct appeals to the Expectation-Maximization (EM) principle (Dempster, Laird, and Rubin 1977)---both for the estimation of mixture components and for coping with the missing data.