978 resultados para Sistemas de custeio tradicionais


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante os últimos anos as áreas de pesquisa sobre Agentes Inteligentes, Sistemas Multiagentes e Comunicação entre Agentes têm contribuído com uma revolução na forma como sistemas inteligentes podem ser concebidos, fundamentados e construídos. Sendo assim, parece razoável supor que sistemas inteligentes que trabalhem com domínios probabilísticos de conhecimento possam compartilhar do mesmo tipo de benefícios que os sistemas mais tradicionais da Inteligência Artificial receberam quando adotaram as concepções de agência, de sistemas compostos de múltiplos agentes e de linguagens de comunicação entre estes agentes. Porém, existem dúvidas não só sobre como se poderia escalar efetivamente um sistema probabilístico para uma arquitetura multiagente, mas como se poderia lidar com as questões relativas à comunicação e à representação de conhecimentos probabilísticos neste tipo de sistema, principalmente tendo em vista as limitações das linguagens de comunicação entre agentes atuais, que não permitem comunicar ou representar este tipo de conhecimento. Este trabalho parte destas considerações e propõe uma generalização do modelo teórico puramente lógico que atualmente fundamenta a comunicação nos sistemas multiagentes, que será capaz de representar conhecimentos probabilísticos. Também é proposta neste trabalho uma extensão das linguagens de comunicação atuais, que será capaz de suportar as necessidades de comunicação de conhecimentos de natureza probabilísticas. São demonstradas as propriedades de compatibilidade do novo modelo lógico-probabilístico com o modelo puramente lógico atual, sendo demonstrado que teoremas válidos no modelo atual continuam válidos no novo modelo. O novo modelo é definido como uma lógica probabilística que estende a lógica modal dos modelos atuais. Para esta lógica probabilística é definido um sistema axiomático e são demonstradas sua correção e completude. A completude é demonstrada de forma relativa: se o sistema axiomático da lógica modal original for completo, então o sistema axiomático da lógica probabilística proposta como extensão também será completo. A linguagem de comunicação proposta neste trabalho é definida formalmente pela generalização das teorias axiomáticas de agência e comunicação atuais para lidar com a comunicação de conhecimentos probabilísticos e pela definição de novos atos comunicativos específicos para este tipo de comunicação. Demonstra-se que esta linguagem é compatível com as linguagens atuais no caso não-probabilístico. Também é definida uma nova linguagem para representação de conteúdos de atos de comunicação, baseada na lógica probabilística usada como modelo semântico, que será capaz de expressar conhecimentos probabilísticos e não probabilísticos de uma maneira uniforme. O grau de expressibilidade destas linguagens é verificado por meio de duas aplicações. Na primeira aplicação demonstra-se como a nova linguagem de conteúdos pode ser utilizada para representar conhecimentos probabilísticos expressos através da forma de representação de conhecimentos probabilísticos mais aceita atualmente, que são as Redes Bayesianas ou Redes de Crenças Probabilísticas. Na outra aplicação, são propostos protocolos de interação, baseados nos novos atos comunicativos, que são capazes de atender as necessidades de comunicação das operações de consistência de Redes Bayesianas secionadas (MSBNs, Multiple Sectioned Bayesian Networks) para o caso de sistemas multiagentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivou-se, nesta pesquisa, estudar os sistemas de custos das instituições particulares de ensino quanto à sua estrutura, funcionamento e utilização no processo de tomada de decisões, em relação à literatura sobre contabilidade de custos. Para tanto, procedeu-se a uma pesquisa bibliográfica e foram pesquisadas três instituições particulares de ensino; houve a opçãoo pelo método de estudo de casos, em virtude de este permitir maior riqueza de detalhes acerca dos sistemas encontrados. Os resultados obtidos permitiram analisar os tipos de sistemas implantados quanto a natureza dos custos, à forma de acumulação, aos métodos de custeio e à utilização dos sistemas para fins gerenciais. Finalmente, comparando-se os resultados obtidos e a literatura, foi possível alcançar algumas conclusões importantes, além de sugerir novas pesquisas e algumas recomendações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa objetivou analisar os sistemas de custos implantados em seis hospitais gerais da cidade do Rio de Janeiro, quanto a sua estrutura e funcionamento, em relação à literatura sobre contabilidade de custos, incluindo os manuais de alguns órgãos governamentais do Brasil. Na revisão de literatura, foram abordados os aspectos e propósitos dos sistemas de custos, as regras para sua implantação, os diferentes sistemas, os métodos de custeio e, finalmente, os enfoques específicos dos sistemas de custos hospitalares (Capítulo II). Para a realização do trabalho, escolheu-se o método de estudo de casos, em razão da carência de verificações empíricas nesta área e a necessidade de uma descrição profunda dos sistemas de custos encontracos (Capítulo III). A seguir, apresentou-se a descrição dos casos, abordando-se as características individuais das unidades hospitalares e a estrutura e o mecanismo dos seus sistemas de custos (Capítulo IV). Os resultados obtidos possibilitaram analisar os tipos de sistemas implantados quanto à natureza dos custos, à forma de acumulação e aos métodos de custeio. Permitiram tambem uma análise dos procedimentos e utilização dos sistemas para fins administrativos (Capítulo V). Relacionando-se os resultados à literatura, chegou-se a importates conclusões e finalmente sugeriu-se novos estudos nesta área.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta aplicações de sistemas de custos. em empresas de prestação de serviços. Aborda as origens da contabilidade de seu desenvolvimento à contabilidade custos. Tece considerações sobre sistemas de custos diretos e por absorção e apresenta um posicionamento sobre as empresas prestadoras de serviços perante a disciplina e perante a economia. Ilustra com a apresentação de dois casos um em uma empresa de projetos de engenharia e outro em uma empresa de processamento de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta monografia, é, pois, a discussão de como adaptar à conjuntura inflacionária os processos tradicionais de tomada de decisões relativas à fixação dos preços específicos aos produtos e/ou serviços, através de informações de custos. O tema sera abordado do ponto de vista interno da empresa, ou seja, em uma visão microeconômica. A bordagem a ser desenvolvida seri, sempre que possível, normativa, na medida em que procurará demonstrar qual a decisão mais adequada no que tange à fixação dos preços de venda através dos custos, conforme o contexto inflacionário; em lugar de demonstrar como normalmente são tais decisões tomadas na prática da administração empresarial. Focalizaremos nossa atenção, principal mente, na fixação de preços de produtos industriais, orientação que esta vinculada a importância da atividade industrial na economia brasileira, e por encontrarmos nessa atividade a maior flexibilidade no tocante a fixação dos preços de venda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose a new paradigm for collective learning in multi-agent systems (MAS) as a solution to the problem in which several agents acting over the same environment must learn how to perform tasks, simultaneously, based on feedbacks given by each one of the other agents. We introduce the proposed paradigm in the form of a reinforcement learning algorithm, nominating it as reinforcement learning with influence values. While learning by rewards, each agent evaluates the relation between the current state and/or action executed at this state (actual believe) together with the reward obtained after all agents that are interacting perform their actions. The reward is a result of the interference of others. The agent considers the opinions of all its colleagues in order to attempt to change the values of its states and/or actions. The idea is that the system, as a whole, must reach an equilibrium, where all agents get satisfied with the obtained results. This means that the values of the state/actions pairs match the reward obtained by each agent. This dynamical way of setting the values for states and/or actions makes this new reinforcement learning paradigm the first to include, naturally, the fact that the presence of other agents in the environment turns it a dynamical model. As a direct result, we implicitly include the internal state, the actions and the rewards obtained by all the other agents in the internal state of each agent. This makes our proposal the first complete solution to the conceptual problem that rises when applying reinforcement learning in multi-agent systems, which is caused by the difference existent between the environment and agent models. With basis on the proposed model, we create the IVQ-learning algorithm that is exhaustive tested in repetitive games with two, three and four agents and in stochastic games that need cooperation and in games that need collaboration. This algorithm shows to be a good option for obtaining solutions that guarantee convergence to the Nash optimum equilibrium in cooperative problems. Experiments performed clear shows that the proposed paradigm is theoretical and experimentally superior to the traditional approaches. Yet, with the creation of this new paradigm the set of reinforcement learning applications in MAS grows up. That is, besides the possibility of applying the algorithm in traditional learning problems in MAS, as for example coordination of tasks in multi-robot systems, it is possible to apply reinforcement learning in problems that are essentially collaborative

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente há uma grande preocupação em relação a substituição das fontes não renováveis pelas fontes renováveis na geração de energia elétrica. Isto ocorre devido a limitação do modelo tradicional e da crescente demanda. Com o desenvolvimento dos conversores de potência e a eficácia dos esquemas de controle, as fontes renováveis têm sido interligadas na rede elétrica, em um modelo de geração distribuída. Neste sentido, este trabalho apresenta uma estratégia de controle não convencional, com a utilização de um controlador robusto, para a interconexão de sistemas fotovoltaicos com à rede elétrica trifásica. A compensação da qualidade de energia no ponto de acoplamento comum (PAC) é realizada pela estratégia proposta. As técnicas tradicionais utilizam detecção de harmônicos, já neste trabalho o controle das correntes é feita de uma forma indireta sem a necessidade desta detecção. Na estratégia indireta é de grande importância que o controle da tensão do barramento CC seja efetuado de uma forma que não haja grandes flutuações, e que a banda passante do controlador em regime permanente seja baixa para que as correntes da rede não tenham um alto THD. Por este motivo é utilizado um controlador em modo dual DSM-PI, que durante o transitório se comporta como um controlador em modo deslizante SM-PI, e em regime se comporta como um PI convencional. A corrente é alinhada ao ângulo de fase do vetor tensão da rede elétrica, obtido a partir do uso de um PLL. Esta aproximação permite regular o fluxo de potência ativa, juntamente com a compensação dos harmônicos e também promover a correção do fator de potência no ponto de acoplamento comum. Para o controle das correntes é usado um controlador dupla sequencia, que utiliza o princípio do modelo interno. Resultados de simulação são apresentados para demonstrar a eficácia do sistema de controle proposto

Relevância:

30.00% 30.00%

Publicador:

Resumo:

High-precision calculations of the correlation functions and order parameters were performed in order to investigate the critical properties of several two-dimensional ferro- magnetic systems: (i) the q-state Potts model; (ii) the Ashkin-Teller isotropic model; (iii) the spin-1 Ising model. We deduced exact relations connecting specific damages (the difference between two microscopic configurations of a model) and the above mentioned thermodynamic quanti- ties which permit its numerical calculation, by computer simulation and using any ergodic dynamics. The results obtained (critical temperature and exponents) reproduced all the known values, with an agreement up to several significant figures; of particular relevance were the estimates along the Baxter critical line (Ashkin-Teller model) where the exponents have a continuous variation. We also showed that this approach is less sensitive to the finite-size effects than the standard Monte-Carlo method. This analysis shows that the present approach produces equal or more accurate results, as compared to the usual Monte Carlo simulation, and can be useful to investigate these models in circumstances for which their behavior is not yet fully understood

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objectives of this research were characterizing the dairy goat production systems and model it using linear program. On the first step of this research, the model was developed using data from farms that was affiliated in the ACCOMIG/Caprileite, used a similar dairy goat production systems and have a partnership program with Universidade Federal de Minas Gerais . The data of research were from a structured questionnaire applied with farmers and monitoring of production systems during a guided visit on their farms. The results permitted identify that all farms were classified as a small and have a intensive production system. The average herd size had 63.75 dairy goats on lactation; it permits a production of 153, 38 kg of goat milk per day. It was observed that existing more than one channel of commercialization for the goat milk and their derivative products. The data obtained, on the first step of this research, was used to develop a linear program model. It was evaluated in two goat production systems, called P1 and P2. The results showed that the P1 system, with an annual birth and lactation during approximately 300 days was the best alternative for business. These results were compared with a mixed (beef and dairy) goat system in the semiarid region, which indicated merged with both systems. Therefore, to achieve profits and sustainability of the system, in all simulations it was necessary a minimum limit of funding of U.S. $ 10,000.00; this value permit earning of U.S. $ 792.00 per month and pay the investment within 5 years

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It bet on the next generation of computers as architecture with multiple processors and/or multicore processors. In this sense there are challenges related to features interconnection, operating frequency, the area on chip, power dissipation, performance and programmability. The mechanism of interconnection and communication it was considered ideal for this type of architecture are the networks-on-chip, due its scalability, reusability and intrinsic parallelism. The networks-on-chip communication is accomplished by transmitting packets that carry data and instructions that represent requests and responses between the processing elements interconnected by the network. The transmission of packets is accomplished as in a pipeline between the routers in the network, from source to destination of the communication, even allowing simultaneous communications between pairs of different sources and destinations. From this fact, it is proposed to transform the entire infrastructure communication of network-on-chip, using the routing mechanisms, arbitration and storage, in a parallel processing system for high performance. In this proposal, the packages are formed by instructions and data that represent the applications, which are executed on routers as well as they are transmitted, using the pipeline and parallel communication transmissions. In contrast, traditional processors are not used, but only single cores that control the access to memory. An implementation of this idea is called IPNoSys (Integrated Processing NoC System), which has an own programming model and a routing algorithm that guarantees the execution of all instructions in the packets, preventing situations of deadlock, livelock and starvation. This architecture provides mechanisms for input and output, interruption and operating system support. As proof of concept was developed a programming environment and a simulator for this architecture in SystemC, which allows configuration of various parameters and to obtain several results to evaluate it

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work proposes a model based approach for pointcut management in the presence of evolution in aspect oriented systems. The proposed approach, called conceptual visions based pointcuts, is motivated by the observation of the shortcomings in traditional approaches pointcuts definition, which generally refer directly to software structure and/or behavior, thereby creating a strong coupling between pointcut definition and the base code. This coupling causes the problem known as pointcut fragility problem and hinders the evolution of aspect-oriented systems. This problem occurs when all the pointcuts of each aspect should be reviewed due to any software changes/evolution, to ensure that they remain valid even after the changes made in the software. Our approach is focused on the pointcuts definition based on a conceptual model, which has definitions of the system's structure in a more abstract level. The conceptual model consists of classifications (called conceptual views) on entities of the business model elements based on common characteristics, and relationships between these views. Thus the pointcuts definitions are created based on the conceptual model rather than directly referencing the base model. Moreover, the conceptual model contains a set of relationships that allows it to be automatically verified if the classifications in the conceptual model remain valid even after a software change. To this end, all the development using the conceptual views based pointcuts approach is supported by a conceptual framework called CrossMDA2 and a development process based on MDA, both also proposed in this work. As proof of concept, we present two versions of a case study, setting up a scenario of evolution that shows how the use of conceptual visions based pointcuts helps detecting and minimizing the pointcuts fragility. For the proposal evaluation the Goal/Question/Metric (GQM) technique is used together with metrics for efficiency analysis in the pointcuts definition