1000 resultados para Modelo baseado em recompensa
Resumo:
A Física e a Administração concentram suas pesquisas sobre fenômenos que, de certa forma, se assemelham, fazendo com que nos questionemos a respeito da grande integral do universo a que estamos submetidos. Em uma exploração por analogias, aproxima-se aqui o mundo organizacional ao dos sistemas UnIVerSaIS, instáveis e não-integráveis, onde a flecha do tempo é quem determina a evolução dos mesmos. Mostra-se que na Administração, como na Física, tudo parece convergir na direção de um inesgotável repertório de bifurcações e possibilidades para o destino mercadológico de produtos, serviços e marcas ao longo de um continuum. Para amenizar os efeitos dessas incertezas, é buscada uma simplificação desses complexos sistemas sociais através de uma proposta de modelo baseado em fatores consagrados pela literatura da gestão empresarial como norteadores das escolhas dos consumidores; um processo gaussiano da 'percepção do valor', que pode servir de ferramenta nas decisões estratégicas e gerenciais dentro das empresas.
Resumo:
In the last years, a number of enterprises ¿ each time greater ¿ have perceived the importance of the strategic management of the intellectual capital in its strategic planning. Factors like globalization of the economy and consequent awareness of specialized work value enclosed in organizational processes and routines, awareness of knowledge as factor of distinct production and low cost of data processing nets, point to a growing replacement of physical force for cerebral in our organizations and in our social lives. This work has the objective to analyze how the information technology, in its present stage, may contribute to creation and development of knowledge, or intellectual capital, in the organization of business. We will use for this purpose the methodology proposed by Nonaka and Takeuchi for creation of knowledge in the organizations. The model is based in two basic points: 1) the existence of two types of knowledge, the tacit and the explicit and its several processes of interaction wich generate operational knowledge (internalization), systematic knowledge (combination), shared knowledge (socialization) and conceptual knowledge (externalization); 2) the view that knowledge in principle is individual, belongs to each member of the organization and must be enlarged 'in an organization way'. Considering the characteristics of the methodology used, the proposal is the construction of a knowledge portal in the organization of business, so that it may be used as a tool for helping to create and develop organizational knowledge.
Resumo:
Este trabalho propõe um modelo para a organização do procedimento de desenvolvimento de produto em ambientes empresariais. É baseado na atual situação de competitividade, a qual exige que as companhias introduzam ciclicamente novos produtos no mercado, deste modo tornando o desenvolvimento de produtos um processo de negócios da empresa, requerendo gestão permanente. A organização do processo de desenvolvimento de produto é baseada na introdução de um modelo de estruturação de atividades, cuja aplicação é facilitada tanto por um mecanismo de intervenção, como pelo sistema de métricas, ambos especificamente elaborados para dar suporte ao modelo de estruturação de atividades. Este modelo é baseado no conceito de Desenvolvimento Integrado de Produto. Como principais resultados, esta tese apresenta: (i) um sistema de métricas capaz de avaliar o desempenho do processo de desenvolvimento, através de índices de Qualidade, Custo e Atraso; (ii) um modelo de integração das atividades, que explora o uso da engenharia simultânea e do controle através de gates e (iii) um modelo de intervenção do PDP, cujo objetivo é adaptar o modelo de integração das atividades às características específicas da empresa e do segmento onde ele seja aplicado. Esta proposta é ilustrada através da aplicação em uma empresa do segmento de brinquedos.
Resumo:
Este trabalho estuda o comportamento do retorno dos fundos de Investimento de Renda Fixa no Brasil a partir de um modelo baseado na hipótese de que os fundos de Investimento Financeiro (FIF’s) e os Fundos de Aplicação em Cotas de FIF’s (FAC’s) estão diretamente ligados às seguintes variáveis: i) Bolsa (IBOVESPA), ii) Taxa de Juros (CDI) e iii) Câmbio (Dólar). No presente estudo, são investigados basicamente dois aspectos: a) a existência de uma relação entre a variação dos indicadores financeiros e a variação do retorno dos fundos e b) a alteração dos fatores explicativos do retorno dos fundos ao longo dos meses. Os resultados obtidos mostram que a grande maioria dos fundos obteve os retornos explicados por um, dois ou três benchmarks; logo, é possível interpretar a categoria de ativos de um fundo como exposição do desempenho de seu benchmark. No entanto, foi constatado que a escolha do benchmark mais adequado para um fundo de investimento depende do conhecimento da composição da carteira desse fundo. Assim, através de uma análise criteriosa dessas informações, o investidor deve estar convicto de que a política de investimentos de um determinado fundo o enquadra em uma determinada categoria. Além disso, ele deve ter a segurança necessária e suficiente de estar classificando seu(s) fundo(s) na categoria certa, e por via de conseqüência, comparar sua performance com base em seu risco associado, de forma justa e compatível com seu semelhante.
Resumo:
Trata de um estudo conceitual investigando as relações entre implantações de metodologias e ferramentas complexas, como o QFD - Desdobramento da Função Qualidade - para o desenvolvimento de produtos, e os requisitos organizacionais para o sucesso da implantação. ·Apresenta uma tipologia organizacional inserida em um contexto histórico e o processo de desenvolvimento de produtos correspondente e suas deficiências. Faz uma descrição do método do QFD abordando: definição, histórico, beneficios, contexto, princípios, exemplo didático, processo de implantação e questões sobre a Voz do Cliente. Apresenta um modelo baseado em seis dimensões fundamentais para o sucesso de uma implantação de metodologias como QFD: estratégia, ferramentas e metodologias, trabalho em equipe, infraestrutura organizacional, liderança da alta direção da organização e, cultura e valores. É apresentado uma experiência real de implantação do QFD
Resumo:
Ao longo da última década muitos estudos apontaram que a economia brasileira não desempenhou de acordo com o seu potencial. Muitos defendem que a falta de qualidade do sistema portuário brasileiro interfere de forma significativa nesse contexto. Com o uso da metodologia Strategic Options Development and Analysis foi possível identificar principais fatores que resultam na deficiência do setor no Brasil, assim como propor opções estratégicas para mitigar ou solucionar os problemas. Oito entrevistas foram conduzidas com empresas que conjuntamente pudessem representar uma perspectiva holística da cadeia de comércio exterior. Como resultado, um modelo baseado nos mapas cognitivos dos entrevistados foi criado e sete fatores foram apontados como os mais relevantes entraves do setor. During the last decade, several studies indicated that the Brazilian economy was not performing as expected or according to its potential. Many argue that the lack of quality in the seaport system acts as a determinant driver in this context. The usage of Strategic Options Development and Analysis methodology permits identifying the main factors that result in this sector lagging behind in Brazil, as well as suggests strategic options to mitigate or solve the problems permanently. Eight in-depth interviews were conducted with companies that together represent a holistic perspective of the international trade process. As a result, a framework based on the interviewees´ individual cognitive maps was created and seven factors were pointed as the sector´s most relevant issues.
Resumo:
O crescimento dos mercados internacionais de capitais e a redução das barreiras no mundo dos negócios fazem com que o movimento pela harmonização das práticas de contabilidade entre as nações seja irreversível. Atualmente, mais de 100 países já aplicam normas harmonizadas com as International Financial Reporting Standards (IFRS), seja nas demonstrações individuais das companhias, seja nas demonstrações consolidadas. O Brasil também está trilhando o caminho da harmonização, porém esta não é uma transição simples. Existem problemas a serem enfrentados, relativos à capacitação de pessoas, às diferenças culturais e ao sistema jurídico (no Brasil vigora o direito romano, enquanto nos países de origem anglo-saxã vigora o direito consuetudinário). A transição pressupõe ainda a substituição de um modelo baseado em normas por outro baseado em princípios, em que a essência econômica dos fatos prevalece sobre a forma jurídica e, desse modo, ganham relevância a interpretação e o julgamento praticados pelos profissionais. A literatura destaca diversos motivos para a existência de diferenças na contabilidade entre países, os quais constituem barreiras em potencial para o alcance da harmonização contábil global. Tendo-se em vista tais considerações, o objetivo neste trabalho é investigar quais as principais barreiras para a adoção das normas internacionais de contabilidade no Brasil. A investigação baseia-se na revisão de estudos recentes sobre o tema e entrevistas com profissionais da área contábil em empresas, auditorias e no meio acadêmico. Na percepção dos entrevistados, as principais barreiras a serem superadas para a adoção das IFRS no Brasil são: a) a influência da legislação fiscal; b) a transição de um sistema baseado em regras para outro baseado em princípios e, portanto, mais subjetivo e c) a qualificação da mão de obra. No que se refere a esta última, observa-se que o novo contador deverá ter um perfil mais executivo, participando ativamente das decisões da empresa, avaliando, julgando e decidindo. Deverá também mostrar-se disponível para uma aprendizagem contínua, adaptando-se a novas situações, aprimorando seus conhecimentos sobre finanças, economia e buscando compreender o negócio da companhia como um todo.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
A análise do comportamento estrutural sob incêndio constitui uma parte importante da engenharia de proteção contra incêndio, especialmente no caso de estruturas de aço, por sua alta condutividade térmica e relativa esbeltez das seções. As dificuldades econômicas e práticas, associadas à avaliação do comportamento estrutural, por meio de ensaios em escala real, têm estimulado o desenvolvimento e uso de métodos de simulação numérica. Esta tese trata da simulação numérica do comportamento de estruturas de aço sob condições de incêndio e se divide em três partes. As duas primeiras partes foram desenvolvidas na Universidade de Liége, na Bélgica, usando-se o programa SAFIR como ferramenta numérica. A terceira parte foi desenvolvida de forma independente, na Universidade Federal do Rio Grande do Sul. Na primeira parte, é feito um estudo comparativo entre o uso de elementos finitos de viga e de casca, na modelagem de vigas simplesmente apoiadas, sujeitas a flambagem lateral por torção. Os esforços de torção, presentes no caso de flambagem lateral, podem levar a uma plastificação da seção transversal e à conseqüente redução da rigidez à torção da seção. Da mesma forma, a degradação das propriedades do material, com o aumento da temperatura, leva à redução da rigidez à torção Havia dúvidas se o modelo com elementos de viga, com uma rigidez à torção constante, poderia fornecer uma resposta aceitável. O estudo mostrou que uma resposta com boa precisão pode ser conseguida, usando-se elementos de viga, desde que o módulo de elasticidade transversal seja ajustado para refletir seu valor correspondente à temperatura de falha. Isso implica um processo iterativo, uma vez que a temperatura de falha não é previamente conhecida. Por outro lado, a degradação da rigidez à torção, por efeitos de plastificação, pode ser ignorada. Na segunda parte, é feita a comparação entre as modelagens bidimensional e tridimensional, de galpões industriais de um andar, sob incêndio. Comumente, a estrutura de galpões industriais é composta por pórticos-tipo, dispostos em paralelo. A análise desses galpões é comumente feita pela simulação no plano do pórtico de aço ou, simplesmente, da treliça da cobertura Na análise bidimensional, importantes efeitos fora do plano são ignorados, como a redistribuição de esforços devido à degradação do material ou à expansão térmica, ou instabilidade lateral dos elementos. A importância desses efeitos e a adequabilidade do modelo 2D para representar o comportamento real são discutidas. Na terceira parte, um modelo numérico para a simulação tridimensional do comportamento de estruturas de aço sob incêndio é apresentado. O modelo é baseado no conceito de rótulas plásticas generalizadas, com modificações para melhor representar a formação e expansão da plastificação no elemento. A descrição cinemática adotada permite obter bons resultados, mesmo com o uso de poucos elementos. A determinação do vetor de esforços internos no elemento, incluindo os efeitos da temperatura, é detalhada. O procedimento foi validado por comparação com ensaios e com modelos numéricos mais sofisticados, como o programa SAFIR. Os resultados demonstram que o procedimento proposto pode ser usado como uma forma alternativa de análise 3D de estruturas sob incêndio, com precisão razoável e baixo esforço computacional.
Resumo:
A intenção deste trabalho é explorar dinâmicas de competição por meio de “simulação baseada em agentes”. Apoiando-se em um crescente número de estudos no campo da estratégia e teoria das organizações que utilizam métodos de simulação, desenvolveu-se um modelo computacional para simular situações de competição entre empresas e observar a eficiência relativa dos métodos de busca de melhoria de desempenho teorizados. O estudo também explora possíveis explicações para a persistência de desempenho superior ou inferior das empresas, associados às condições de vantagem ou desvantagem competitiva
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.
Resumo:
Este trabalho propõe a implementação de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros são determinados por variáveis macroeconômicas observáveis. Desenvolvi o estudo com base na metodologia elaborada por Huse (2007), que propôs um novo modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados foram: taxa de câmbio em reais por dólar, expectativa da taxa de inflação para daqui a doze meses, spread do Credit Default Swap com maturidade de cinco anos, taxa de desemprego, índice de commodities e expectativa da taxa SELIC para o final do ano corrente. O modelo foi capaz de explicar 94% das mudanças na estrutura a termo da taxa de juros. Aumentos na taxa de câmbio, na expectativa de taxa de inflação, no spread do Credit Default Swap, na taxa de desemprego e na expectativa da taxa SELIC estão diretamente relacionadas com aumento na curva de juros com zero cupom. Variações no preço das commodities estão inversamente relacionadas com variações na Estrutura a Termo da Taxa de Juros.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Este trabalho propõe o desenvolvimento de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros em Dólar, o Cupom Cambial, são determinados por variáveis macroeconômicas observáveis. O estudo segue a metodologia elaborada por Huse (2011), que propõe um modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados são: taxa de câmbio em real por dólar, spread do Credit Default Swap (CDS) Brasil de cinco anos, índice de preço de commodities, taxa de cupom cambial futura com vencimento em três meses, taxa futura de juros em dólar com cupom zero (Libor), volatilidade implícita da taxa de câmbio esperada pelo mercado de hoje até um ano, e inflação implícita de um ano no Brasil. O modelo foi capaz de explicar 95% das mudanças na estrutura a termo do cupom cambial. Aumentos no spread do CDS, na taxa de cupom cambial de três meses, na Libor, no índice de preço de commodities, e na volatilidade implícita do câmbio com vencimento em um ano estão diretamente relacionados com aumento na curva de juros em dólar. Por sua vez, a depreciação cambial tem correlação positiva com as maturidades mais curtas, até 2.5 anos, e negativo com a parte longa, até cinco anos. Choques na inflação implícita têm um pequeno impacto positivo para vencimentos curtos, mas levemente negativo para vencimentos mais longos.