19 resultados para Process-based model

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Starting from the idea that economic systems fall into complexity theory, where its many agents interact with each other without a central control and that these interactions are able to change the future behavior of the agents and the entire system, similar to a chaotic system we increase the model of Russo et al. (2014) to carry out three experiments focusing on the interaction between Banks and Firms in an artificial economy. The first experiment is relative to Relationship Banking where, according to the literature, the interaction over time between Banks and Firms are able to produce mutual benefits, mainly due to reduction of the information asymmetry between them. The following experiment is related to information heterogeneity in the credit market, where the larger the bank, the higher their visibility in the credit market, increasing the number of consult for new loans. Finally, the third experiment is about the effects on the credit market of the heterogeneity of prices that Firms faces in the goods market.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

We develop a job-market signaling model where signals may convey two pieces of information. This model is employed to study the GED exam and countersignaling (signals non-monotonic in ability). A result of the model is that countersignaling is more expected to occur in jobs that require a combination of skills that differs from the combination used in the schooling process. The model also produces testable implications consistent with evidence on the GED: (i) it signals both high cognitive and low non-cognitive skills and (ii) it does not affect wages. Additionally, it suggests modifications that would make the GED a more signal.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

presente trabalho objetiva construir um Modelo Exploratório de desenvolvimento de tecnologia da informação, aplicável no Brasil, tendo como referência as formas de organização do trabalho e da produção das comunidades Linux. O Modelo deve ser aplicado em ambiente Internet, ou em outras redes de telecomunicação. Por essa razão, utiliza métodos e técnicas de aprendizado à distância e e-Iearning. A construção do Modelo apoia-se, como alicerce teórico fundamental, no conceito de convivialidade de Illich (1976), no entendimento de Inose e Pierce (1984) sobre comunidades de interesse e democratização da produção de software, nos estudos de Malone (1997, 1998) referentes a modelos de organização em rede, nos estudos de Weber (2000) sobre comunidades de interesse online, na metodologia de capacitação "Pensamento Digital" de Joia (1999-1, 1999-2) e na estratégia pedagógico-metodológica do Australian National Training Authority (T AFE/SA). No entanto, as pesquisas de Matesco (2000, 2001) tomaram exeqüível a idéia da construção do Modelo, tendo que vista que o Modelo Exploratório proposto aplica-se, preferencialmente, a países, regiões, empresas ou organizações dependentes tecnologicamente de seus parceiros negociais e com escassez de recursos para aplicar em pesquisa e desenvolvimento. O caminho metodológico para a construção do Modelo inicia-se com uma sucinta abordagem sobre o sistema operacional Linux, a descrição das formas de organização das comunidades Linux e a identificação das formas de organização do trabalho e da produção no Fordismo-Taylorismo e no pós-Fordismo. Situa o funcionamento das comunidades Linux em relação a essas formas de organização. Descreve o processo de formação do conhecimento no aprendizado à distância e no elearning. Aborda a experiência de outros países com o Linux e com as comunidades Linux. Principalmente, o sucesso obtido pelos países nórdicos em absorção de tecnologia. A seguir, fundamentando-se em duas pesquisas de Matesco (2000,2001), analisa a dependência tecnológica do Brasil e propõe o Modelo Exploratório, cujo objetivo é, prioritariamente, colaborar para a redução dessa dependência, por meio de um processo de formação de conhecimento, baseado no aprendizado à distância e e-Iearning do Linux e na propagação de comunidades Linux, empregando-se o modelo de organização em rede.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Os avanços tecnológicos, principalmente os relacionados tecnologia da informação das telecomunicações, transformaram as organizações sociedade, são objeto de conflitos empresariais devido às mudanças que produzem na vida das pessoas nas formas de trabalho. Este estudo procura analisar contribuição da TI, em especial dos produtos de software, na discutível mudança do paradigma fordista para pós-fordista. adoção dessas tecnologias pode se configurar como competência essencial fator de competitividade da empresa, no entanto os impactos dessa nova dinâmica empresarial que faz uso intensivo da TI carecem de maior estudo compreensão para verificar se nessa dinâmica está envolvido um processo efetivo de flexibilização ou apenas uma sistemática para redução de custos. trabalho foi baseado em um estudo de caso, por meio de pesquisa realizada com usuários de produtos de software em uma grande empresa do setor elétrico, para verificar contribuição desses produtos no processo de flexibilização organizacional. Os resultados indicam a existência de fatores facilitadores do processo de flexibilização apoiados na utilização de sistemas informatizados. Os produtos de software alteram de forma significativa processo de comunicação aproximam as pessoas entre diferentes níveis hierárquicos. No entanto, tecnologia ainda não utilizada de forma disseminada como recurso para flexibilizar as relações de trabalho, principalmente no que se refere execução de atividades em locais horários de trabalho não convencionais. Para operacionalização de um modelo de gestão flexível, com características pós-fordistas, há necessidade de desenvolvimento de um novo perfil nas relações de trabalho que ainda têm características do modelo fordista de produção.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O corpo de teorias referente à Capacidade Absortiva versa sobre a gestão da informação. Foi identificado na literatura que esse campo de estudo evoluiu com base especialmente em modelos baseados em processos. Visando facilitar o uso dos conceitos advindos dessa teoria pela aplicação da variedade de técnicas de análise de dados disponíveis, identificou-se a necessidade de propor uma escala para os construtos em modelo de variância. Dentre os vários construtos, optamos pela proposição da operacionalização de Reconhecimento de Valor, o primeiro construto do grupo de teorias sobre Capacidade Absortiva. Este estudo dispõe de três capítulos principais apresentados em formato de artigos acadêmicos, o primeiro dos quais visando à proposição de uma escala para o construto Reconhecimento de Valor, o segundo objetivando a análise de sua formação por meio de seus antecedentes e o terceiro que o testa de forma integrada com outros construtos da Capacidade Absortiva. Espera-se que este trabalho contribua para o entendimento teórico da teoria de Capacidade Absortiva, permita o desenvolvimento de outras pesquisas aplicando o construto desenvolvido e que facilite o processo gerencial na adoção e gestão de procedimentos que efetivamente capacitem a empresa no Reconhecimento de Valor quando diante de uma oportunidade.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We develop a job-market signaling model where signals may convey two pieces of information. This model is employed to study the GED exam and countersignaling (signals non-monotonic in ability). A result of the model is that countersignaling is more expected to occur in jobs that require a combination of skills that differs from the combination used in the schooling process. The model also produces testable implications consistent with evidence on the GED: (i) it signals both high cognitive and low non-cognitive skills and (ii) it does not affect wages. Additionally, it suggests modifications that would make the GED a more effective signal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo deste trabalho é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pretende-se no presente trabalho avaliar a gestão do processo de negociação complexa da 5ª Conferência Ministerial da Organização Mundial do Comércio em Cancún, ocorrida entre os dias 10 e 14 de setembro de 2003, no México, apontando os problemas e questões que resultaram no colapso de um possível acordo. O futuro da OMC é incerto e mudanças traumáticas sofridas por muitos países que vivem sob as regras da OMC indicam que alguma coisa na OMC terá que mudar, principalmente nos processos de negociação complexa, de forma que a integridade da organização não seja comprometida. Buscou-se respostas na análise e avaliação da gestão do processo de negociação, estudando e pesquisando os conceitos de barganha posicional, detalhando o processo de negociação baseado em princípios, explorando em profundidade o estado da arte para gestão de conversas difíceis. Dissecando a questão dos conflitos e das coalizões, mostrando a dificuldade existente na resolução de disputas públicas e no uso de instrumentos para quebrar o impasse nas negociações buscou-se estabelecer o instrumental teórico que possibilitasse aprofundar o diagnóstico da situação atual na OMC. Como recomendação explorou-se a avaliação de conflitos, com base na eficiência - teoria dos jogos-, justiça e na eqüidade, a melhor forma de negociação baseada em princípios, de gestão de público demandante, no diálogo dos multistakeholders, a importância das conversas informais paralelas, o ambiente da complexidade e a visão ampla que proporciona o enfoque do funcionamento de sistemas decisórios autopoiéticos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O mundo está passando por grandes mudanças que vêm afetando as esferas sociais, tecnológicas, empresariais e mentais. As empresas têm sido ameaçadas por diversos fatores como rapidez no lançamento de novos produtos, interferência dos governos, clientes cada vez mais conscientes e exigentes, aumento da concorrência, globalização e o surgimento constante de novas tecnologias. Essas mudanças exigem das empresas uma estrutura mais flexível capaz de absorver as rápidas necessidades do ambiente, e o formato atual não tem se mostrado adequado para vencer estes desafios. Nesse contexto, a gestão baseada em processos tem se mostrado promissora ao ser incorporada nas principais tecnologias de gestão como BSC, NBR ISO 9000, gestão de custos com ABC, entre outras. Como toda nova abordagem, as tecnologias (ou modelos) baseadas em processos sofrem de vários problemas, sendo alguns já conhecidos, como resistência às mudanças, falta de preparo e apoio insuficiente da alta direção. Os estudos desses fatores são incipientes e em sua maioria não tratam de seus impactos em empresas públicas. Esse trabalho tem como objetivo justamente identificar esses fatores na literatura (teoria e casos de estudo) e confrontá-los com aqueles encontrados em uma empresa pública (estudo de caso), analisando sua pertinência. Os resultados encontrados, além de confirmarem os fatores, sugerem que a sua utilização, na forma de um checklist, podem beneficiar as empresas na prevenção, redução ou eliminação de problemas que impactam ou inviabilizam um projeto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A presente pesquisa teve como objetivo verificar o impacto que o treinamento causa na produtividade do trabalho. O arcabouço teórico fundamentou-se em Formação Profissional, Educação, Qualificação, Treinamento e Produtividade. O processo metodológico empregado, baseado no estruturalismo, buscou identificar e descrever as relações subjacentes entre treinamento e produtividade nos seus elementos essenciais. O estudo é exploratório, descritivo e explicativo. A coleta de dados foi realizada através de entrevistas semi-estruturadas, utilizando o critério de saturação para definir o número de entrevistas. Foram entrevistados gestores e profissionais de três grandes empresas privadas do Rio de Janeiro, procurando-se identificar a relação entre a produtividade do trabalho e o treinamento gerencial. Para análise dos dados foi construída uma matriz contendo as respostas dos entrevistados, que subsidiou a interpretação das informações. Os resultados obtidos indicam que não é possível estabelecer uma correlação direta entre treinamento e produtividade do trabalho no universo pesquisado, já que: 1) o treinamento é realizado com base em considerações diversas da área de produtividade (atualização técnica, equiparação a concorrência, maximização do desempenho); 2) a produtividade do trabalho raramente é medida, muitas vezes não é sequer controlada; 3) existe uma confusão conceitual entre desempenho (esforço realizado) e produtividade (resultado alcançado).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O propósito principal deste trabalho foi avaliar como as competências centrais de Dell Inc., que formam a base de sua vantagem competitiva, contribuem ou não para a iniciativa da empresa de ingressar no segmento de prestação de serviços, na indústria da Tecnologia da Informação. Para identificar as competências centrais da Dell Inc. foram utilizados os critérios propostos na teoria Resource Based Model.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese tem por objetivo principal o estudo da relação entre atividade econômica, inflação e política monetária no tocante a três aspectos importantes. O primeiro, a perspectiva histórica da evolução da relação entre atividade e inflação no pensamento econômico. O segundo, a análise da dinâmica inflacionária utilizando um modelo com fundamentação microeconômica, no caso a curva de Phillips Novo-Keynesiana, com uma aplicação ao caso brasileiro. O terceiro, a avaliação da eficiência dos mecanismos de sinalização de política monetária utilizados pelo Banco Central no Brasil com base nos movimentos na estrutura a termo da taxa de juros com a mudança da meta da Selic. O elemento central que une estes ensaios é a necessidade do formulador de política econômica compreender o impacto significativo das ações de política monetária na definição do curso de curto prazo da economia real para atingir seus objetivos de aliar crescimento econômico com estabilidade de preços. Os resultados destes ensaios indicam que o modelo Novo-Keynesiano, resultado de um longo desenvolvimento na análise econômica, constitui-se numa ferramenta valiosa para estudar a relação entre atividade e inflação. Uma variante deste modelo foi empregada para estudar com relativo sucesso a dinâmica inflacionária no Brasil, obtendo valores para rigidez da economia próximos ao comportamento observado em pesquisas de campo. Finalmente, foi aliviada a previsibilidade das ações do Banco Central para avaliar o estágio atual de desenvolvimento do sistema de metas no Brasil, através da reação da estrutura a termo de juros às mudanças na meta da taxa básica (Selic). Os resultados indicam que comparando o período de 2003 a 2008 com 2000 a 2003, verificamos que os resultados apontam para o aumento da previsibilidade das decisões do Banco Central. Este fato pode ser explicado por alguns fatores: o aprendizado do público sobre o comportamento do Banco Central; a menor volatilidade econômica no cenário econômico e o aperfeiçoamento dos mecanismos de sinalização e da própria operação do sistema de metas. Comparando-se o efeito surpresa no Brasil com aqueles obtidos por países que promoveram mudanças significativas para aumentar a transparência da política monetária no período de 1990 a 1997, observa-se que o efeito surpresa no Brasil nas taxas de curto prazo reduziu-se significativamente. No período de 2000 a 2003, o efeito surpresa era superior aos de EUA, Alemanha e Reino Unido e era da mesma ordem de grandeza da Itália. No período de 2003 a 2008, o efeito surpresa no Brasil está próximo dos valores dos EUA e Alemanha e inferiores aos da Itália e Reino Unido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo desta dissertação é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10.