928 resultados para interfacial parameter
Resumo:
We present a critical analysis of the generalized use of the "impact factor". By means of the Kruskal-Wallis test, it was shown that it is not possible to compare distinct disciplines using the impact factor without adjustments. After assigning the median journal the value of one (1.000), the impact factor value for each journal was calculated by the rule of three. The adjusted values were homogeneous, thus permitting comparison among distinct disciplines.
Resumo:
Solceller baserade på organiska halvledare erbjuder en möjlighet till storskalig och billig solenergiproduktion. Organiska halvledare har den fördelen att de är lösningsprocesserbara vilket gör att solceller och andra elektroniska komponenter baserade på dessa halvledare kan tillverkas vid låga temperaturer och med liten energiförbrukning. Nackdelen med dessa material är deras strukturella och energetiska oordning som leder till lägre effektivitet. För att organiska solceller ska kunna kommersialiseras krävs grundläggande insikter i de olika processer som begränsar effektiviteten. En stor del av forskningen om dessa processer har varit fokuserad kring egenskaperna av solcellens olika komponenter (de aktiva materialen) som sådana, medan gränsytorna mellan olika material har fått mindre uppmärksamhet. Gränsytor mellan olika material har distinkt olika egenskaper jämfört med ett rent material, och gränsytors olika egenskaper kan ha en väldigt stor inverkan på hur solcellerna fungerar. Syftet med denna avhandling är att klargöra några olika gränsyterelaterade effekter i organiska dioder och solceller. De gränsytor som behandlas är gränsytan mellan kontakten och det aktiva lagret (metall-organisk) och gränsytan mellan donor och acceptor (organisk-organisk). Resultaten visar att metall-organiska gränsytor måste designas noggrant för att begränsa förlust av effektivitet. En icke-idealisk kontakt leder till starkt reducerad effektivitet på grund av att elektronerna extraheras ineffektivt. Även till synes idealiska kontakter kan orsaka förluster genom spontan laddningsöverföring från metallen till det organiska lagret som effektivt sett minskar på den spänning som cellen kan alstra. Den organisk-organiska gränsytan påverkar hur mycket ström cellen kan alstra och beroende på gränsytans beskaffenhet kan de negativa rekombinationsprocesserna i materialet kontrolleras. ------------------------------------------------- Orgaanisille puolijohteille perustuvat aurinkokennot mahdollistavat suurimuotoisen ja edullisen aurinkoenergiatuotannon. Orgaanisten puolijohteiden etu on että ne voidaan liuottaa, jolloin aurinkokennot ja muut näille johteille perustuvat elektroniset komponentit voidaan valmistaa alhaisessa lämpötilassa kuluttaen vähän energiaa. Materiaalien huonona puolena on kuitenkin niiden rakenteellinen ja energeettinen epäjärjestys, jonka seurauksena niiden tehokkuus on huonompi. Orgaanisten aurinkokennojen kaupallistaminen edellyttää perustavanlaatuista ymmärystä tehokkuutta rajoittavista prosesseista. Aurinkokennotutkimus on pääosin keskittynyt aurinkokennon eri komponenttien (aktiivisten materiaalien) ominaisuuksiin, kun taas eri materiaalien rajapinnat ovat jääneet vähemmälle huomiolle. Eri materiaalien välisillä rajapinnoilla on huomattavan erilaisia ominaisuuksia verrattuna puhtaisiin materiaaleihin. Rajapintojen ominaisuudet voivat kuitenkin vaikuttaa merkittävästi aurinkokennojen toimintaan. Tämän väitöstutkimuksen tarkoituksena on selventää joitain rajapintoihin liittyviä toimintoja orgaanisissa diodeissa ja aurinkokennoissa. Käsiteltävät rajapinnat ovat rajapinta kontaktin ja aktiivisen kerroksen välillä (metallis-orgaaninen) ja rajapinta donorin ja akseptorin välillä (orgaanis-orgaaninen). Tutkimustulokset osoittavat, että metallis-orgaaniset rajapinnat tulee suunnitella huolellisesti, jotta tehokkuuden alenemista voidaan rajoittaa. Mikäli kontakti ei ole ideaalisti suunniteltu, vähenee tehokkuus huomattavasti, mikä johtuu elektronien tehottomasta ekstrahoinnista. Jopa ideaalisilta vaikuttavat kontaktit voivat johtaa tehokkuuden alenemiseen, mikäli varaus siirtyy spontaanisti metallista orgaaniseen kerrokseen, sillä tämä alentaa jännitettä jonka kenno voi tuottaa. Kennon orgaanis-orgaaninen rajapinta vaikuttaa siihen, kuinka paljon virtaa kenno pystyy tuottamaan. Rajapinnan ominaisuuksista riippuen materiaalin rekombinaatio on hallittavissa.
Resumo:
Time series analysis can be categorized into three different approaches: classical, Box-Jenkins, and State space. Classical approach makes a basement for the analysis and Box-Jenkins approach is an improvement of the classical approach and deals with stationary time series. State space approach allows time variant factors and covers up a broader area of time series analysis. This thesis focuses on parameter identifiablity of different parameter estimation methods such as LSQ, Yule-Walker, MLE which are used in the above time series analysis approaches. Also the Kalman filter method and smoothing techniques are integrated with the state space approach and MLE method to estimate parameters allowing them to change over time. Parameter estimation is carried out by repeating estimation and integrating with MCMC and inspect how well different estimation methods can identify the optimal model parameters. Identification is performed in probabilistic and general senses and compare the results in order to study and represent identifiability more informative way.
Resumo:
The growing population on earth along with diminishing fossil deposits and the climate change debate calls out for a better utilization of renewable, bio-based materials. In a biorefinery perspective, the renewable biomass is converted into many different products such as fuels, chemicals, and materials, quite similar to the petroleum refinery industry. Since forests cover about one third of the land surface on earth, ligno-cellulosic biomass is the most abundant renewable resource available. The natural first step in a biorefinery is separation and isolation of the different compounds the biomass is comprised of. The major components in wood are cellulose, hemicellulose, and lignin, all of which can be made into various end-products. Today, focus normally lies on utilizing only one component, e.g., the cellulose in the Kraft pulping process. It would be highly desirable to utilize all the different compounds, both from an economical and environmental point of view. The separation process should therefore be optimized. Hemicelluloses can partly be extracted with hot-water prior to pulping. Depending in the severity of the extraction, the hemicelluloses are degraded to various degrees. In order to be able to choose from a variety of different end-products, the hemicelluloses should be as intact as possible after the extraction. The main focus of this work has been on preserving the hemicellulose molar mass throughout the extraction at a high yield by actively controlling the extraction pH at the high temperatures used. Since it has not been possible to measure pH during an extraction due to the high temperatures, the extraction pH has remained a “black box”. Therefore, a high-temperature in-line pH measuring system was developed, validated, and tested for hot-water wood extractions. One crucial step in the measurements is calibration, therefore extensive efforts was put on developing a reliable calibration procedure. Initial extractions with wood showed that the actual extraction pH was ~0.35 pH units higher than previously believed. The measuring system was also equipped with a controller connected to a pump. With this addition it was possible to control the extraction to any desired pH set point. When the pH dropped below the set point, the controller started pumping in alkali and by that the desired set point was maintained very accurately. Analyses of the extracted hemicelluloses showed that less hemicelluloses were extracted at higher pH but with a higher molar-mass. Monomer formation could, at a certain pH level, be completely inhibited. Increasing the temperature, but maintaining a specific pH set point, would speed up the extraction without degrading the molar-mass of the hemicelluloses and thereby intensifying the extraction. The diffusion of the dissolved hemicelluloses from the wood particle is a major part of the extraction process. Therefore, a particle size study ranging from 0.5 mm wood particles to industrial size wood chips was conducted to investigate the internal mass transfer of the hemicelluloses. Unsurprisingly, it showed that hemicelluloses were extracted faster from smaller wood particles than larger although it did not seem to have a substantial effect on the average molar mass of the extracted hemicelluloses. However, smaller particle sizes require more energy to manufacture and thus increases the economic cost. Since bark comprises 10 – 15 % of a tree, it is important to also consider it in a biorefinery concept. Spruce inner and outer bark was hot-water extracted separately to investigate the possibility to isolate the bark hemicelluloses. It was showed that the bark hemicelluloses comprised mostly of pectic material and differed considerably from the wood hemicelluloses. The bark hemicelluloses, or pectins, could be extracted at lower temperatures than the wood hemicelluloses. A chemical characterization, done separately on inner and outer bark, showed that inner bark contained over 10 % stilbene glucosides that could be extracted already at 100 °C with aqueous acetone.
Resumo:
To study the dendritic morphology of retinal ganglion cells in wild-type mice we intracellularly injected these cells with Lucifer yellow in an in vitro preparation of the retina. Subsequently, quantified values of dendritic thickness, number of branching points and level of stratification of 73 Lucifer yellow-filled ganglion cells were analyzed by statistical methods, resulting in a classification into 9 groups. The variables dendritic thickness, number of branching points per cell and level of stratification were independent of each other. Number of branching points and level of stratification were independent of eccentricity, whereas dendritic thickness was positively dependent (r = 0.37) on it. The frequency distribution of dendritic thickness tended to be multimodal, indicating the presence of at least two cell populations composed of neurons with dendritic diameters either smaller or larger than 1.8 µm ("thin" or "thick" dendrites, respectively). Three cells (4.5%) were bistratified, having thick dendrites, and the others (95.5%) were monostratified. Using k-means cluster analysis, monostratified cells with either thin or thick dendrites were further subdivided according to level of stratification and number of branching points: cells with thin dendrites were divided into 2 groups with outer stratification (0-40%) and 2 groups with inner (50-100%) stratification, whereas cells with thick dendrites were divided into one group with outer and 3 groups with inner stratification. We postulate, that one group of cells with thin dendrites resembles cat ß-cells, whereas one group of cells with thick dendrites includes cells that resemble cat a-cells.
Resumo:
Since its discovery, chaos has been a very interesting and challenging topic of research. Many great minds spent their entire lives trying to give some rules to it. Nowadays, thanks to the research of last century and the advent of computers, it is possible to predict chaotic phenomena of nature for a certain limited amount of time. The aim of this study is to present a recently discovered method for the parameter estimation of the chaotic dynamical system models via the correlation integral likelihood, and give some hints for a more optimized use of it, together with a possible application to the industry. The main part of our study concerned two chaotic attractors whose general behaviour is diff erent, in order to capture eventual di fferences in the results. In the various simulations that we performed, the initial conditions have been changed in a quite exhaustive way. The results obtained show that, under certain conditions, this method works very well in all the case. In particular, it came out that the most important aspect is to be very careful while creating the training set and the empirical likelihood, since a lack of information in this part of the procedure leads to low quality results.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Polymer-solvent interaction parameters for the blends of natural rubber (NR) with styrene-butadiene rubber (SBR) and polybutadiene rubber ( BR) are calculated using the Flory-Rehner equation by equating the network density of the vulcanizates in two solvents.
Resumo:
Cure characteristics of short polyester fiber-polyurethane composites with respect to different bonding agents (MD resins) based on 4, 4' diphenylmethanediisocyanate (MDI) and various diols like propyleneglycol (PG), polypropyleneglycol (PPG) and glycerol (GL) were studied. Tmax. - Tmin. of composites having MD resin were found to be higher than the composite without MD resin. Minimum torque and Tmax. - Tmin., scorch time and optimum cure time were increased with the increase of MDI equivalence. Optimum ratio of MDI / -of in the resin was found to be within the range of 1-1.5. It was observed from the cure characteristics that for getting better adhesion between short polyester fiber and the polyurethane matrix the best choice of MD resin was one based on MDI and 1:1 equivalent mixture of polypropyleneglycol and glycerol.
Resumo:
The rheological behavior of a short-polyester-fiber-filled polyurethane elastomer composite containing different bonding agents has been studied in the temperature range 120-160°C and in the shear rate range 63-608 s-'. The composite with and without bonding agents showed a pseudoplastic behavior which decreased with the increase of temperature. Composites containing bonding agents based on polypropyleneglycol and 4,4'-diphenylmethanediisocyanate showed the lowest viscosity values at a particular shear rate, whereas composites containing a glycerol- (GL) based bonding agent showed the highest viscosity. The viscosity of the composite decreased sharply after a particular temperature (140°C) and the fall was less drastic in the composite containing a GL-based bonding agent.
Resumo:
The stress relaxation behavior of polyurethane elastomer and short polyester fiber filled elastomer composites with and without bonding agents at different strain levels and strain rates was studied. It was found that these compounds exhibit a multistage relaxation mechanism and that the rate of relaxation and cross-over time depend on the strain level and strain rate. The incorporation of fibers reduced the stage-I relaxation rate and increased the cross-over time of the gum vulcanisate. A higher rate of relaxation (first stage) was shown by the composites with longitudinal fiber orientation and composites with bonding agents.
Resumo:
The cure characteristics of short fiber-polyurethane elastomer were studied with respect to different fiber-matrix bonding agents. A hexamethylenetetramine- resorcinol -hydrated silica based bonding agent was found to affect the stability of the composite. A new bonding agent, TP resin, based on polymeric toluenediisocyanate and polypropylene glycol has been developed. Cure characteristics of the composite with and without TP resin at different fiber loadings were also compared. Minimum torque, scorch time and optimum cure time increased with fiber content. Maximum torque was consistently higher with TP resin at all fiber loadings.
Resumo:
In this article it is proved that the stationary Markov sequences generated by minification models are ergodic and uniformly mixing. These results are used to establish the optimal properties of estimators for the parameters in the model. The problem of estimating the parameters in the exponential minification model is discussed in detail.
Resumo:
We study the effect of parameter fluctuations and the resultant multiplicative noise on the synchronization of coupled chaotic systems. We introduce a new quantity, the fluctuation rate Ф as the number of perturbations occurring to the parameter in unit time. It is shown that ϕ is the most significant quantity that determines the quality of synchronization. It is found that parameter fluctuations with high fluctuation rates do not destroy synchronization, irrespective of the statistical features of the fluctuations. We also present a quasi-analytic explanation to the relation between ϕ and the error in synchrony.