953 resultados para Historical data usage


Relevância:

80.00% 80.00%

Publicador:

Resumo:

It is presented a software developed with Delphi programming language to compute the reservoir's annual regulated active storage, based on the sequent-peak algorithm. Mathematical models used for that purpose generally require extended hydrological series. Usually, the analysis of those series is performed with spreadsheets or graphical representations. Based on that, it was developed a software for calculation of reservoir active capacity. An example calculation is shown by 30-years (from 1977 to 2009) monthly mean flow historical data, from Corrente River, located at São Francisco River Basin, Brazil. As an additional tool, an interface was developed to manage water resources, helping to manipulate data and to point out information that it would be of interest to the user. Moreover, with that interface irrigation districts where water consumption is higher can be analyzed as a function of specific seasonal water demands situations. From a practical application, it is possible to conclude that the program provides the calculation originally proposed. It was designed to keep information organized and retrievable at any time, and to show simulation on seasonal water demands throughout the year, contributing with the elements of study concerning reservoir projects. This program, with its functionality, is an important tool for decision making in the water resources management.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The existence of a minimum storage capacity of grains as a condition for the maintenance of regulator physical stocks has been used as a strategic factor in the agribusiness expansion. However, in Brazil the storage infrastructure has not followed the growth of the agricultural sector. This fact is evident in the case of soybeans that currently represent 49% of grain production in the country, whose volume production has been increasing significantly over the years. This study aimed to predict the futureneeds of static storage capacity of soybeans from historical data to estimate the investment needed to install storage units in Brazil for the next five years. A statistic analysis of collected data allowed a forecast and identification of the number of storage units that should be installed to meet the storage needs of soybeans in the next five years. It was concluded that by 2015 the soybean storage capacity should be 87 million tons, and to store 49% of soybeans produced, 1,104 storage units should be installed at a cost of R$ 442 million.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this study was to identify the relation between the evapotranspirometer demand and the supply of water from local rainfall, evaluating the possibility of using water excess for irrigation of Green Roofs in the State of Mato Grosso, in Brazil. The study was done using a series of historical data provided by the National Institute of Meteorology (INMET - Instituto Nacional de Meteorologia) which has official climatological stations in 12 cities and regions of the State. The evapotranspiration values were obtained by the Penman-Monteith method and by the Climatic Water Balance (CWB) by the Thornthwaite and Mather method using Available Water Capacity (AWC) of 12mm. With the CWB the excess and deficit were calculated, which were used for the estimative of the volume and area of a reservoir as a function of a collector area of a roof of 100m² and the volume of supplementary water for irrigation. With the obtained results, it was found that in most investigated regions of the State the use of green roofs is not compromised by the water deficiency. On the other hand, the use of a reservoir to accumulate the rain water excess may be impractical, because it requires a considerable area for installation and also because of the high cost of the land.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This review presents historical data about atrial natriuretic peptide (ANP) from its discovery as an atrial natriuretic factor (ANF) to its role as an atrial natriuretic hormone (ANH). As a hormone, ANP can interact with the hypothalamic-pituitary-adrenal axis (HPA-A) and is related to feeding activity patterns in the rat. Food restriction proved to be an interesting model to investigate this relationship. The role of ANP must be understood within a context of peripheral and central interactions involving different peptides and pathways

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The objective of this Master’s thesis is to develop a model which estimates net working capital (NWC) monthly in a year period. The study is conducted by a constructive research which uses a case study. The estimation model is designed in the need of one case company which operates in project business. Net working capital components should be linked together by an automatic model and estimated individually, including advanced components of NWC for example POC receivables. Net working capital estimation model of this study contains three parts: output template, input template and calculation model. The output template gets estimate values automatically from the input template and the calculation model. Into the input template estimate values of more stable NWC components are inputted manually. The calculate model gets estimate values for major affecting components automatically from the systems of a company by using a historical data and made plans. As a precondition for the functionality of the estimation calculation is that sales are estimated in one year period because the sales are linked to all NWC components.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Developing nations vary in data usage techniques with respect to developed nations because of lack of standard information technology architecture. With the concept of globalization in the modern times, there is a necessity of information sharing between different developing nations for better advancements in socio-economic and science and technology fields. A robust IT architecture is needed and has to be built between different developing nations which eases information sharing and other data usage methods. A framework like TOGAF may work in this case as a normal IT framework may not fit to meet the requirements of an enterprise architecture. The intention of the thesis is to build an enterprise architecture between different developing nations using a framework TOGAF

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Afin de distinguer les immigrants de première génération des individus nés à Québec et de discuter de l’identité des immigrants de cette ville aux XVIIIe et XIXe siècles, trente-quatre squelettes humains exhumés du cimetière protestant Saint-Matthew (Québec, 1771-1860) ont fait l’objet d’analyses ostéologiques et isotopiques du strontium (87Sr/86Sr) et de l’oxygène (δ18O). Les teneurs obtenues, bien que moins précises que les données historiques, ont permis de distinguer trois groupes d’origine, soit les individus nés à Québec (N = 12), les immigrants de première génération provenant le plus probablement des îles Britanniques et du nord de la France (N = 19) et les immigrants de première génération dont l’origine ne peut être précisée (N = 3). De plus, l’origine écossaise de certains individus a pu être suggérée en fonction de compositions isotopiques variant entre -10,0 et -9,09 % vs VSMOW. La comparaison des groupes d’origine à des données provenant de sources historiques et d’une étude antérieure a permis de dresser un portrait de l’identité des immigrants, à la fois sur les plans populationnel et individuel. De plus, les compositions isotopiques (δ18O, 87Sr/86Sr, δ13C et δ15N) nous laissent croire qu’au moins un individu pourrait être d’origine amérindienne et qu’un autre proviendrait d’une partie de l’Europe plus appauvrie en 18O (possiblement un pays scandinave ou une région alpine). La distribution spatiale des sépultures nous a également permis d’émettre des hypothèses sur les liens familiaux et sociaux d’immigrants inhumés en caveaux ou entassés de façon particulièrement modeste.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Brazil has been increasing its importance in agricultural markets. The reasons are well known to be the relative abundance of land, the increasing technology used in crops, and the development of the agribusiness sector which allow for a fast response to price stimuli. The elasticity of acreage response to increases in expected return is estimated for Soybeans in a dynamic (long term) error correction model. Regarding yield patterns, a large variation in the yearly rates of growth in yield is observed, climate being probably the main source of this variation which result in ‘good’ and ‘bad’ years. In South America, special attention should be given to the El Niño and La Niña phenomena, both said to have important effects on rainfalls patterns and consequently in yield. The influence on El Niño and La Niña in historical data is examined and some ways of estimating the impact of climate on yield of Soybean and Corn markets are proposed. Possible implications of climate change may apply.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las estrategias de inversión pairs trading se basan en desviaciones del precio entre pares de acciones correlacionadas y han sido ampliamente implementadas por fondos de inversión tomando posiciones largas y cortas en las acciones seleccionadas cuando surgen divergencias y obteniendo utilidad cerrando la posición al converger. Se describe un modelo de reversión a la media para analizar la dinámica que sigue el diferencial del precio entre acciones ordinarias y preferenciales de una misma empresa en el mismo mercado. La media de convergencia en el largo plazo es obtenida con un filtro de media móvil, posteriormente, los parámetros del modelo de reversión a la media se estiman mediante un filtro de Kalman bajo una formulación de estado espacio sobre las series históricas. Se realiza un backtesting a la estrategia de pairs trading algorítmico sobre el modelo propuesto indicando potenciales utilidades en mercados financieros que se observan por fuera del equilibrio. Aplicaciones de los resultados podrían mostrar oportunidades para mejorar el rendimiento de portafolios, corregir errores de valoración y sobrellevar mejor periodos de bajos retornos.