1000 resultados para Rademacher averages


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, um dos grandes objetivos das empresas é conseguirem uma gestão eficiente. Em particular, empresas que lidam com grandes volumes de stocks têm a necessidade de otimizar as quantidades dos seus produtos armazenados, com o objetivo, de entre outros, reduzir os seus custos associados. O trabalho documentado descreve um novo modelo, desenvolvido para a gestão de encomendas de uma empresa líder em soluções de transporte. A eficiência do modelo foi alcançada com a utilização de vários métodos matemáticos de previsão. Salientam-se os métodos de Croston, Teunter e de Syntetos e Boylan adequados para artigos com procuras intermitentes e a utilização de métodos mais tradicionais, tais como médias móveis ou alisamento exponencial. Os conceitos de lead time, stock de segurança, ponto de encomenda e quantidade económica a encomendar foram explorados e serviram de suporte ao modelo desenvolvido. O stock de segurança recebeu especial atenção. Foi estabelecida uma nova fórmula de cálculo em conformidade com as necessidades reais da empresa. A eficiência do modelo foi testada com o acompanhamento da evolução do stock real. Para além de uma redução significativa do valor dos stocks armazenados, a viabilidade do modelo é reflectida pelo nível de serviço alcançado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - Caracterização do problema: O sistema de saúde português atingiu um patamar de ineficiência tal que urge ser reestruturado de forma a torná-lo sustentável. De forma a atingir este nível de sustentabilidade, uma série de soluções podem ser consideradas das quais destacamos a integração de cuidados. Este conceito exige que os diferentes níveis de saúde sigam um único caminho, trabalhando de forma coordenada e contínua. A integração de cuidados pode ser implementada através de várias tipologias entre as quais se destaca a integração clínica que por sua vez é composta pela continuidade de cuidados. Assim, ao medir a continuidade de cuidados, quantifica-se de certa forma a integração de cuidados. Objetivos: Avaliar o impacto da continuidade de cuidados nos custos. Metodologia: Os dados foram analisados através de estatísticas descritivas para verificar o seu grau de normalidade. Posteriormente foram aplicados testes t-student para analisar a existência de diferenças estatisticamente significativas entre as médias das diferentes variáveis. Foi então estudado o grau de associação entre variáveis através da correlação de spearman. Por fim, foi utilizado o modelo de regressão log-linear para verificar a existência de uma relação entre as várias naturezas de custos e os índices de continuidade. Com base neste modelo foram simulados dois cenários para estimar o impacto da maximização da continuidade de cuidados nas várias naturezas de custos. Conclusões: No geral, verifica-se uma relação muito ligeira entre a continuidade de cuidados e os custos. Mais especificamente, uma relação mais duradoura entre o médico e o doente resulta numa poupança de custos, independentemente da tipologia. Analisando a densidade da relação, observa-se uma relação positiva entre a mesma e os custos totais e o custo com Meios Complementares de Diagnóstico e Terapêutica (MCDT). Contudo verifica-se uma relação médico-doente negativa entre a densidade e os custos com medicamentos e com pessoal. Ao analisar o impacto da continuidade de cuidados nos custos, conclui-se que apenas a duração da relação médico-doente tem um impacto negativo em todas as categorias de custos, exceto o custo com medicamentos. A densidade de cuidados tem um impacto negativo apenas no custo com pessoal, influenciando positivamente as outras categorias de custos. Extrapolando para o nível nacional se o nível de densidade de uma relação fosse maximizado, existiria uma poupança de 0,18 euros, por ano, em custos com pessoal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last few years, we have observed an exponential increasing of the information systems, and parking information is one more example of them. The needs of obtaining reliable and updated information of parking slots availability are very important in the goal of traffic reduction. Also parking slot prediction is a new topic that has already started to be applied. San Francisco in America and Santander in Spain are examples of such projects carried out to obtain this kind of information. The aim of this thesis is the study and evaluation of methodologies for parking slot prediction and the integration in a web application, where all kind of users will be able to know the current parking status and also future status according to parking model predictions. The source of the data is ancillary in this work but it needs to be understood anyway to understand the parking behaviour. Actually, there are many modelling techniques used for this purpose such as time series analysis, decision trees, neural networks and clustering. In this work, the author explains the best techniques at this work, analyzes the result and points out the advantages and disadvantages of each one. The model will learn the periodic and seasonal patterns of the parking status behaviour, and with this knowledge it can predict future status values given a date. The data used comes from the Smart Park Ontinyent and it is about parking occupancy status together with timestamps and it is stored in a database. After data acquisition, data analysis and pre-processing was needed for model implementations. The first test done was with the boosting ensemble classifier, employed over a set of decision trees, created with C5.0 algorithm from a set of training samples, to assign a prediction value to each object. In addition to the predictions, this work has got measurements error that indicates the reliability of the outcome predictions being correct. The second test was done using the function fitting seasonal exponential smoothing tbats model. Finally as the last test, it has been tried a model that is actually a combination of the previous two models, just to see the result of this combination. The results were quite good for all of them, having error averages of 6.2, 6.6 and 5.4 in vacancies predictions for the three models respectively. This means from a parking of 47 places a 10% average error in parking slot predictions. This result could be even better with longer data available. In order to make this kind of information visible and reachable from everyone having a device with internet connection, a web application was made for this purpose. Beside the data displaying, this application also offers different functions to improve the task of searching for parking. The new functions, apart from parking prediction, were: - Park distances from user location. It provides all the distances to user current location to the different parks in the city. - Geocoding. The service for matching a literal description or an address to a concrete location. - Geolocation. The service for positioning the user. - Parking list panel. This is not a service neither a function, is just a better visualization and better handling of the information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el Laboratorio de Huachipa del Instituto del Mar del Perú, en el período comprendido entre octubre de 1980 y agosto de 1982, se realizaron varios experimentos a fin de determinar el efecto del tipo de estanque, densidad de carga y calidad y cantidad de fertilizante en el crecimiento y la producción de Tilapia nilotica. Estos experimentos arrojaron una diferencia no significativa entre los tratamientos, por lo cual se halló una cifra general promedio de crecimiento y producción que permitió su comparación con las cifras de producción obtenidas en otras áreas del mundo, un peso individual promedio de 203.4 g, una producción total de 2,038 Kg/ha/272 días, y una producción neta de 5.6 Kg/ha/día. Cifras que quedan dentro del rango reportado por el ICA (International Center for Aquaculture) para clima templado; similares a las obtenidas en países de Europa Central y la China, y notablemente bajas comparadas con los 20 Kg/ha/día producidos en Israel. Se identifican la mala condición de los estanques utilizados, la baja densidad de carga aplicada, la baja calidad del fertilizante y el clima de la zona, específicamente la presencia de nubosidad, como los factores de mayor incidencia en los resultados poco satisfactorios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el Laboratorio de Huachipa del Instituto del Mar del Perú, en el período comprendido entre octubre de 1980 y agosto de 1982, se realizaron varios experimentos a fin de determinar el efecto del tipo de estanque, densidad de carga y calidad y cantidad de fertilizante en el crecimien­to y la producción de Tilapia nilotica. Estos experimentos arrojaron una diferencia no significativa entre los tratamientos, por lo cual se halló una cifra general promedio de crecimiento y producción que permitió su comparación con las cifras de producción obtenidas en otras áreas del mundo, un peso individual promedio de 203.4 g, una producción total de 2,038 Kg/ha/272 días, y una producción neta de 5.6 Kg/ha/día. Cifras que quedan dentro del rango reportado por el ICA (International Center for Aquaculture) para clima templado; similares a las obtenidas en países de Europa Central y la China, y notablemente bajas comparadas con los 20 Kg/ha/día producidos en Israel. Se identifican la mala condición de los estanques utiliza dos, la baja densidad de carga aplicada, la baja calidad del fertilizante y el clima de la zona, específicamente la presencia de nubosidad, como los factores de mayor incidencia en los resultados poco satisfactorios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

COD discharges out of processes have increased in line with elevating brightness demands for mechanical pulp and papers. The share of lignin-like substances in COD discharges is on average 75%. In this thesis, a plant dynamic model was created and validated as a means to predict COD loading and discharges out of a mill. The assays were carried out in one paper mill integrate producing mechanical printing papers. The objective in the modeling of plant dynamics was to predict day averages of COD load and discharges out of mills. This means that online data, like 1) the level of large storage towers of pulp and white water 2) pulp dosages, 3) production rates and 4) internal white water flows and discharges were used to create transients into the balances of solids and white water, referred to as “plant dynamics”. A conversion coefficient was verified between TOC and COD. The conversion coefficient was used for predicting the flows from TOC to COD to the waste water treatment plant. The COD load was modeled with similar uncertainty as in reference TOC sampling. The water balance of waste water treatment was validated by the reference concentration of COD. The difference of COD predictions against references was within the same deviation of TOC-predictions. The modeled yield losses and retention values of TOC in pulping and bleaching processes and the modeled fixing of colloidal TOC to solids between the pulping plant and the aeration basin in the waste water treatment plant were similar to references presented in literature. The valid water balances of the waste water treatment plant and the reduction model of lignin-like substances produced a valid prediction of COD discharges out of the mill. A 30% increase in the release of lignin-like substances in the form of production problems was observed in pulping and bleaching processes. The same increase was observed in COD discharges out of waste water treatment. In the prediction of annual COD discharge, it was noticed that the reduction of lignin has a wide deviation from year to year and from one mill to another. This made it difficult to compare the parameters of COD discharges validated in plant dynamic simulation with another mill producing mechanical printing papers. However, a trend of moving from unbleached towards high-brightness TMP in COD discharges was valid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landscape geochemical investigations were conducted upon portions of a natural uniform landscape in southern Norway. This consisted of sampling both soil profile samples and spruce tree twigs for the analysis of twelve chemical elements. These elements were cobalt, copper, nickel, lead, zinc, manganese, magnesium, iron, calcium, sodium, potassium and aluminum which were determined by atomic absorption analysis on standardized extraction techniques for both organic and inorganic materials. Two "landscape traverses" were chosen for a comparative study of the effects of varying landscape parameters upon the trace element distribution patterns throughout the landscape traverses. The object of this study was to test this method of investigation and the concept of an ideal uniform landscape under Norwegian conditions. A "control traverse" was established to represent uniform landscape conditions typical of the study area and was used to determine "normal" or average trace element distribution patterns. A "signal traverse" was selected nearby over an area of lead mineralization where the depth to bedrock is very small. The signal traverse provided an area of similar landscape conditions to those of the control traverse with significant differences in the bedrock configuration and composition. This study was also to determine the effect of the bedrock mineralization upon the distribution patterns of the twelve chemical elements within the major components of the two landscape traverses (i.e. soil profiles and tree branches). The lead distribution within the soils of the signal traverse showed localized accumulations of lead within the overburden with maximum values occurring within the organic A horizon of soil profile #10. Above average concentrations of lead were common within the signal traverse, however, the other elements studied were not significantly different from those averages determined throughout the soils of the control traverse. The spruce twig samples did not have corresponding accumulations of lead near the soil lead anomaly. This is attributable to the very localized nature of the lead dispersion pattern within the soils. This approach to the study of the geochemistry of a natural landscape was effective in establishing: a) average or "normal" trace element distribution patterns b) local variations in the landscape morphology and c) the effect of unusually high lead concentrations upon the geochemistry of the landscape (i.e. within the soil profiles and tree branches). This type of study provides the basis for further more intensive studies and serves only as a first approximation of the behaviour of elements within a natural landscape.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Central Governor Model (CGM) suggests that perturbations in the rate of heat storage (AS) are centrally integrated to regulate exercise intensity in a feed-forward fashion to prevent excessive thermal strain. We directly tested the CGM by manipulating ambient temperature (Tam) at 20-minute intervals from 20°C to 35°C, and returning to 20°C, while cycling at a set rate of perceived exertion (RPE). The synchronicity of power output (PO) with changes in HS and Tam were quantified using Auto-Regressive Integrated Moving Averages analysis. PO fluctuated irregularly but was not significantly correlated to changes in thermo physiological status. Repeated measures indicated no changes in lactate accumulation. In conclusion, real time dynamic sensation of Tam and integration of HS does not directly influence voluntary pacing strategies during sub-maximal cycling at a constant RPE while non-significant changes in blood lactate suggest an absence of peripheral fatigue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Ontario Winter Games began in 1970. This four day sporting event features amateur athletes from across the province, with the majority of the athletes being between the ages of 14-18. The event is held every two years and averages 3,500 participants, including athletes, coaches and officials. It provides an opportunity for young athletes to showcase and develop their skills, often preparing them for sports competitions at the national and international level. The 1985 Ontario Winter Games were held in St. Catharines, Ontario, from March 14-17.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option Droit des technologies de l'information"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étiologie de l’obésité infantile est multifactorielle et complexe. Le patrimoine génétique tout comme l’environnement d’un enfant peuvent favoriser l’apparition d’un surplus de poids. C’est pourquoi plusieurs études se sont penchées sur le lien entre l’environnement familial et en particulier le rôle de la mère et le risque d’obésité chez l’enfant. L’objectif est de mieux comprendre quels sont les facteurs de risque maternels spécifiques à chaque population afin de mieux prévenir ce fléau. Ce projet a donc cherché à identifier quelles sont les relations entre les facteurs de risque maternels et l’indice de masse corporelle d’enfants québécois avec surcharge pondérale. Parmi les facteurs de risque étudiés, on note des liens entre le niveau de scolarité de la mère, son statut familial et son niveau d’insécurité alimentaire. Sur le plan cognitif et comportemental, le lien entre l’indice de masse corporelle (IMC) de l’enfant et la perception maternelle du poids de son enfant ainsi que le niveau de restriction alimentaire maternel ont également été analysés. Au total, 47 entrevues ont été complétées par téléphone auprès des mères d’enfants obèses ou en embonpoint grâce à un large questionnaire destiné à décrire le profil des familles consultant les cliniques externes du CHU Ste Justine. Les tests de Fisher pour les variables catégorielles, le test de T de comparaison des moyennes du Z-score de l’IMC des enfants ont permis d’effectuer les analyses statistiques. Les résultats obtenus démontrent qu’un lien existe entre le niveau de scolarité maternel et la présence d’insécurité alimentaire. De même, il a été possible de constater que les enfants avec une mère restrictive des apports alimentaires de leur enfant avaient un Z-score de l’IMC significativement plus élevé. Ces résultats suggèrent qu’il existe des liens entre le profil socio-économique et comportemental de la mère et le surplus de poids de l’enfant. Des tests auprès d’un plus large échantillon seront nécessaires afin de confirmer ces résultats, l’objectif étant, entre autres, de mieux cibler les enfants à risque d’embonpoint ou d’obésité et de mieux outiller les professionnels de la santé en contact avec ces familles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à examiner les relations entre la perception que des membres du personnel enseignant ont des pratiques du leadership transformationnel de la direction d’école, du contexte scolaire et des conditions favorisant leur engagement à implanter le renouveau pédagogique dans leur école. Le schéma conceptuel et le questionnaire qui sous-tendent cette recherche sont une adaptation de ceux élaborés par Yu, Leithwood et Jantzi (2002). Le questionnaire a été complété par 31 membres du personnel enseignant de quatre écoles primaires montréalaises appartenant à des commissions scolaires anglophones et francophones. À partir de ces données, nous avons calculé des moyennes et nous avons comparé les écoles, à l’aide des tests Mann-Whitney, selon leur niveau d’implantation du renouveau pédagogique, leur niveau socioéconomique et la langue de la commission scolaire d’appartenance. De plus, pour compléter nos données quantitatives, nous avons repris quelques citations des entrevues faites auprès des directions de ces écoles que les professeurs du département d’Administration et fondements de l’éducation de l’Université de Montréal, qui font partie du Groupe de recherche sur l’éducation en milieux défavorisés (GRÉMD), ont effectuées dans le cadre d’une autre étude. Les comparaisons des écoles selon leur niveau d’implantation du renouveau pédagogique révèlent que le personnel enseignant des deux écoles en changement se distingue de celui des deux écoles peu engagées dans le changement sur un seul point majeur : il a évalué moins positivement le contexte scolaire, un résultat appuyé par les analyses non paramétriques. Il semble que, dans les écoles qui ont participé à notre étude, le fait de soutenir l’implantation du renouveau pédagogique serait associé à une évaluation plus faible du contexte scolaire ; la culture de l’école et l’environnement étant les conditions les plus touchées. Un autre résultat de cette recherche est le fait que les enseignantes de l’école favorisée ont évalué le contexte scolaire, notamment la culture, l’environnement et les stratégies pour le changement, moins positivement que les enseignantes des écoles défavorisées. Enfin, les comparaisons des écoles en fonction de la langue de la commission scolaire indiquent qu’il n’existe pas de différence significative dans les évaluations faites des trois variables, que les enseignantes travaillent dans une école appartenant à une commission scolaire anglophone ou francophone. Étant donné que l’échantillon d’enseignantes qui a participé à notre étude est modeste, les résultats de cette recherche ne peuvent pas être généralisés, cependant ils pourraient constituer une base pour des recherches ultérieures dans ce domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geometric parameters of binary (1:1) PdZn and PtZn alloys with CuAu-L10 structure were calculated with a density functional method. Based on the total energies, the alloys are predicted to feature equal formation energies. Calculated surface energies of PdZn and PtZn alloys show that (111) and (100) surfaces exposing stoichiometric layers are more stable than (001) and (110) surfaces comprising alternating Pd (Pt) and Zn layers. The surface energy values of alloys lie between the surface energies of the individual components, but they differ from their composition weighted averages. Compared with the pure metals, the valence d-band widths and the Pd or Pt partial densities of states at the Fermi level are dramatically reduced in PdZn and PtZn alloys. The local valence d-band density of states of Pd and Pt in the alloys resemble that of metallic Cu, suggesting that a similar catalytic performance of these systems can be related to this similarity in the local electronic structures.