935 resultados para Scale Factor
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.
Resumo:
Un diagnostic de cancer du sein met la relation d’un couple à l'épreuve. La communication à propos du cancer peut aider les conjoints à s’appuyer mutuellement afin de mieux s’adapter à la maladie. Cependant, dans la documentation existante, peu d’échelles mesurent explicitement cette forme de communication. Ce projet avait pour but de valider l’échelle de communication des couples aux prises avec le cancer (CCC). Les patientes (N = 120) et leurs conjoints (N = 109) ont été interrogés au sujet de leur expérience avec le cancer du sein. Une analyse factorielle performé sur l’ensemble des données a permis de retenir deux facteurs pour l’échelle CCC, l’évitement et l’ouverture à la communication. L’échelle a démontré une bonne validité convergente avec le Primary Communication Inventory (r = .54, p <.01 patientes; r = .55, p <.01 partenaires). Finalement, l’échelle CCC prédit la dépression (Δr² = 0.029) et l’ajustement marital (Δr² = 0.032) au-delà de la communication générale. Avec plus ample développement, l'échelle actuelle pourrait servir à des fins de recherche ainsi que dans des contextes cliniques où une évaluation après un diagnostic de cancer permettrait, au besoin, la mise en oeuvre précoce d’interventions sur la communication conjugale au propos de la maladie.
Resumo:
The report of the Steering Committee of the Kerala State Planning Board for the preparation of the VIII five Year Plan on Industry and Hiningzslisted several factors inhibiting and promoting growth of small industrial units. Kerala's educated manpower, the native intelligence of the Keralites best suited for taking up logic—based professions and availability of a Hell—developed and broad~based physical infrastructure particularly in the transport and communications sectors, are a few of the positive factors identified. On the negative side, may be mentioned high wage rates, preference on the part of the educated for white collar Jobs, lack of entrepreneurship, paucity of essential resources for industrial use, high density of population and the distance factor which places Kerala away from the major domestic markets. In this context, it would appear that the industrial co-operative movement could possibly play a vital role in accelerating-the momentum of small industrial development of Kerala which has a Health of highly educated and skilled manpower. However, in spite of the encouragement extended by the Government, the movement does not seem to have.been picking up in the modern small scale sector. The present study is an attempt to analyse the factors that have affected the performance of the industrial co—operatives in the small scale industrial sector of Kerala.
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Resumen tomado de la publicaci??n
Resumo:
The main objective of this paper aims at developing a methodology that takes into account the human factor extracted from the data base used by the recommender systems, and which allow to resolve the specific problems of prediction and recommendation. In this work, we propose to extract the user's human values scale from the data base of the users, to improve their suitability in open environments, such as the recommender systems. For this purpose, the methodology is applied with the data of the user after interacting with the system. The methodology is exemplified with a case study
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Objetivo. Determinar si la cantidad de sangre y su localización es el espacio subaracnoideo, medible con la escala de Fisher en las primeras 24 horas de ocurrido el ictus hemorrágico, es un factor predictor para el desarrollo de hidrocefalia en pacientes con diagnóstico de hemorragia subaracnoidea (HSA) espontánea, vistos en el Hospital Universitario Clínica San Rafael (HUCSR) con seguimiento de 12 meses. Métodos. 251 pacientes fueron incluidos en una cohorte retrospectiva. La asociación entre la escala de Fisher y el desarrollo de hidrocefalia en pacientes con HSA espontánea fue analizada a través de un análisis bivariado y multivariado. Resultados. La edad promedio de los pacientes fue de 55,5 ± 15 años; con predominancia en el sexo femenino 65,7%. La prevalencia de hidrocefalia fue de 27,1% en la cohorte y la etiología de la HSA fue en su mayoría por ruptura de aneurismas de arterias cerebrales; 78,5%. La sobrevida a 12 meses fue de 65,7%. Tanto el grado 4 en la escala de Fisher como Hunt-Hess III se asocian con el desarrollo de hidrocefalia: ORA; 2.93 IC 95%: 1.51-5.65, P <0.001, ORA 2.83 IC 95%: 1.31-6.17 P=0.008 respectivamente. Conclusión. La presencia de sangrado Intraventricular o intraparenquimatoso ( Fisher 4) en las primeras 24 horas, asociado a un deterioro neurológico al ingreso Hunt-Hess III están asociados con el desarrollo de hidrocefalia en los 251 pacientes evaluados con diagnóstico de HSA espontánea; hallazgos consistentes con lo reportado en la literatura mundial.
Resumo:
Integrado no conceito mais geral da perspetiva temporal, o futuro transcendental tem sido conceptualizado como uma dimensão que abrange as crenças sobre o futuro a partir da morte imaginada do corpo físico até ao infinito. A transcendental-future time perspective scale (TFTPS) é uma escala unidimensional composta por 10 itens que avalia as cognições relacionadas com este espaço temporal. O objetivo deste estudo é apresentar a adaptação à língua e cultura portuguesa desta escala, assim como a sua estrutura fatorial e características psicométricas numa amostra de 346 participantes com idades compreendidas entre os 17 e os 54 anos (M = 19.87, DP = 4.27). Os resultados encontrados através da análise fatorial exploratória validaram a unidimensionalidade da escala (65.94 % de variância total explicada, α = 0.87).
Resumo:
Objective: to assess, in a randomized sample of measurements made with the NBAS scale, in preterm and / or low birth weight babies, some psychometric characteristics of the same as her construct validity and internal consistency. Materials and methods: we designed a study of assessment of Psychometric properties. From a study of cross-sectional measurements, there were made assessment of the statistic behavior of the items, individually and in their internal consistency, then, there were carried out, type exploratory and confirmatory factor analysis. Results: we find that, in the analysis of preterm or low birth weight babies, the scale remains largely, the overall structure of factors proposed since 1982, in relation to the dimensions of habituation, social interactive and complementary. The items that make up the dimensions of SNA and motor systems are integrated. Also, we found Cronbach alpha values for internal consistency, which reflects higher to medium correlation levels in the behavioral and reflex items. Conclusion: the NBAS scale reflects characteristics of construct validity and internal consistency, which credits it as a useful tool in clinical assessment of neurodevelopmental effects of preterm or low birth weight babies. It is necessary to analyze the structure of the scale when used for purposes of scientific research.
Resumo:
Resumen tomado de la publicaci??n
Resumo:
During the descent into the recent ‘exceptionally’ low solar minimum, observations have revealed a larger change in solar UV emissions than seen at the same phase of previous solar cycles. This is particularly true at wavelengths responsible for stratospheric ozone production and heating. This implies that ‘top-down’ solar modulation could be a larger factor in long-term tropospheric change than previously believed, many climate models allowing only for the ‘bottom-up’ effect of the less-variable visible and infrared solar emissions. We present evidence for long-term drift in solar UV irradiance, which is not found in its commonly used proxies. In addition, we find that both stratospheric and tropospheric winds and temperatures show stronger regional variations with those solar indices that do show long-term trends. A top-down climate effect that shows long-term drift (and may also be out of phase with the bottom-up solar forcing) would change the spatial response patterns and would mean that climate-chemistry models that have sufficient resolution in the stratosphere would become very important for making accurate regional/seasonal climate predictions. Our results also provide a potential explanation of persistent palaeoclimate results showing solar influence on regional or local climate indicators.
Resumo:
A photochemical trajectory model has been used to simulate the chemical evolution of air masses arriving at the TORCH field campaign site in the southern UK during late July and August 2003, a period which included a widespread and prolonged photochemical pollution episode. The model incorporates speciated emissions of 124 nonmethane anthropogenic VOC and three representative biogenic VOC, coupled with a comprehensive description of the chemistry of their degradation. A representation of the gas/aerosol absorptive partitioning of ca. 2000 oxygenated organic species generated in the Master Chemical Mechanism (MCM v3.1) has been implemented, allowing simulation of the contribution to organic aerosol (OA) made by semi- and non-volatile products of VOC oxidation; emissions of primary organic aerosol (POA) and elemental carbon (EC) are also represented. Simulations of total OA mass concentrations in nine case study events (optimised by comparison with observed hourly-mean mass loadings derived from aerosol mass spectrometry measurements) imply that the OA can be ascribed to three general sources: (i) POA emissions; (ii) a '' ubiquitous '' background concentration of 0.7 mu g m(-3); and (iii) gas-to-aerosol transfer of lower volatility products of VOC oxidation generated by the regional scale processing of emitted VOC, but with all partitioning coefficients increased by a species-independent factor of 500. The requirement to scale the partitioning coefficients, and the implied background concentration, are both indicative of the occurrence of chemical processes within the aerosol which allow the oxidised organic species to react by association and/or accretion reactions which generate even lower volatility products, leading to a persistent, non-volatile secondary organic aerosol (SOA). The contribution of secondary organic material to the simulated OA results in significant elevations in the simulated ratio of organic carbon (OC) to EC, compared with the ratio of 1.1 assigned to the emitted components. For the selected case study events, [OC]/[EC] is calculated to lie in the range 2.7-9.8, values which are comparable with the high end of the range reported in the literature.
Resumo:
The high complexity of cloud parameterizations now held in models puts more pressure on observational studies to provide useful means to evaluate them. One approach to the problem put forth in the modelling community is to evaluate under what atmospheric conditions the parameterizations fail to simulate the cloud properties and under what conditions they do a good job. It is the ambition of this paper to characterize the variability of the statistical properties of tropical ice clouds in different tropical "regimes" recently identified in the literature to aid the development of better process-oriented parameterizations in models. For this purpose, the statistical properties of non-precipitating tropical ice clouds over Darwin, Australia are characterized using ground-based radar-lidar observations from the Atmospheric Radiation Measurement (ARM) Program. The ice cloud properties analysed are the frequency of ice cloud occurrence, the morphological properties (cloud top height and thickness), and the microphysical and radiative properties (ice water content, visible extinction, effective radius, and total concentration). The variability of these tropical ice cloud properties is then studied as a function of the large-scale cloud regimes derived from the International Satellite Cloud Climatology Project (ISCCP), the amplitude and phase of the Madden-Julian Oscillation (MJO), and the large-scale atmospheric regime as derived from a long-term record of radiosonde observations over Darwin. The vertical variability of ice cloud occurrence and microphysical properties is largest in all regimes (1.5 order of magnitude for ice water content and extinction, a factor 3 in effective radius, and three orders of magnitude in concentration, typically). 98 % of ice clouds in our dataset are characterized by either a small cloud fraction (smaller than 0.3) or a very large cloud fraction (larger than 0.9). In the ice part of the troposphere three distinct layers characterized by different statistically-dominant microphysical processes are identified. The variability of the ice cloud properties as a function of the large-scale atmospheric regime, cloud regime, and MJO phase is large, producing mean differences of up to a factor 8 in the frequency of ice cloud occurrence between large-scale atmospheric regimes and mean differences of a factor 2 typically in all microphysical properties. Finally, the diurnal cycle of the frequency of occurrence of ice clouds is also very different between regimes and MJO phases, with diurnal amplitudes of the vertically-integrated frequency of ice cloud occurrence ranging from as low as 0.2 (weak diurnal amplitude) to values in excess of 2.0 (very large diurnal amplitude). Modellers should now use these results to check if their model cloud parameterizations are capable of translating a given atmospheric forcing into the correct statistical ice cloud properties.