1000 resultados para Modelo baseado em recompensa
Resumo:
Esta dissertação avalia o Prêmio Nacional da Qualidade (PNQ), cujo papel, segundo a entidade mantenedora, é nortear a Excelência em Gestão no Brasil. O estudo utiliza os textos do modelo de excelência PNQ 2011, que, aliado à revisão de literatura acadêmica sobre o tema, deu suporte ao estudo empírico aqui apresentado. Esta pesquisa baseia-se em tema, perspectiva e metodologia diferentes de estudos prévios encontrados na literatura científica, e contribui para a identificação de fatores chaves para a avaliação da excelência em gestão, um trabalho que exercita o Prêmio Nacional da Qualidade (PNQ), em uma abordagem estatística multivariada, com sugestão de novos conhecimentos acadêmico e executivo. Para as 409 organizações respondentes, entre outubro e novembro de 2011 e janeiro de 2012, 262 apresentaram questionários válidos. A amostra é semelhante à realidade econômica do Brasil em 2011, composta por: 30% do setor Industrial e 70% do setor de Serviços, igual à composição do Produto Interno Bruto (PIB), segundo o IBGE, além de contar com representantes dos 21 segmentos de atuação, conforme classificação da revista Exame. Como principal resultado, 67,5%% da avaliação da excelência em gestão no Brasil se aplica à seis fatores chaves: 1) indicadores de desempenho, 2) resposta ágil aos clientes, 3) estímulos internos para resultado e excelência, 4) mitigação de impactos negativos à sociedade, 5) equidade social da força de trabalho e 6) participação de mercado, baseado no PNQ 2011, avaliado pela análise fatorial exploratória.
Resumo:
Os bancos possuem dificuldade em solucionar os problemas dos clientes. Mais especificamente nas agências, onde a maior parte das metas dos gerentes está relacionada à comercialização de novos produtos e prospecção de novos clientes, interromper esta dinâmica para tratar de problemas de produtos já vendidos ou outros tipos de solicitação representa custo adicional e baixo potencial de receitas para o gerente. Como a agência é um dos principais canais de atendimento dos bancos e estas instituições continuamente pregam a qualidade nos serviços como pilar estratégico, é fundamental que os gerentes sejam tempestivos na resolução de problemas. A dificuldade em se fazer um monitoramento adequado, principalmente nos grandes bancos, pode implicar no surgimento de moral hazard. Ou seja, os gerentes podem optar por direcionar seus esforços àquilo que lhes trazem uma recompensa maior (vendas), preterindo a solução de problemas, ou priorizando apenas aquelas que podem aumentar a sua remuneração. Este trabalho discute o modelo de contrato de incentivos dos gerentes de agência em um banco de varejo brasileiro e, através de análises quantitativas da base de manifestações, procura identificar os gaps existentes que permitem a ocorrência de moral hazard a fim de propiciar mudanças no formato de contrato. O escopo do estudo está limitado a dois dos segmentos de correntistas. Espera-se poder contribuir com a prática administrativa a fim de permitir que os gestores consigam desenhar contratos de incentivos mais robustos, que os clientes usufruam de um serviço bancário com mais qualidade e que o banco analisado possa aumentar a fidelização de clientes.
Resumo:
Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.
Resumo:
Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.
Resumo:
Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.
Resumo:
Este estudo objetiva identificar os principais desafios que a Agência X encontrou no caminho do desenvolvimento de um modelo de gestão de pessoas por competências e quais as possíveis formas de superar esses desafios, tendo como foco a percepção e o entendimento dos entrevistados. A organização estudada procura, há tempos, amadurecer o processo de elaboração de um plano de cargos e salários baseado em mérito e competência, que culminou na aprovação da nova modelagem institucional em gestão de recursos humanos. Com este ferramental típico da iniciativa privada, dedica-se a Agência X, fortemente, à criação de um ambiente favorável para uma gestão eficiente e produtiva, claramente alinhada aos conceitos de uma adhocracia e de uma organização inovadora sustentável. Ocorre que todo processo de mudança organizacional encontra seus desafios e seus obstáculos. No complexo ambiente das empresas públicas, este processo não é diferente, sendo ainda mais forte e evidente. Elaboraram-se, nesta pesquisa, três tipologias de grupos organizacionais, tendo como base a forma de entrada na organização: o Grupo 01 “da Oposição” – os funcionários com entrada pró-forma, o Grupo 02 “Favorável Financeiro” – os funcionários com entrada por concurso público e o Grupo 03 “Favorável Meritocrático” – os funcionários com entrada por concurso público e que exercem cargo de confiança. As análises demonstraram que os funcionários com entrada pró-forma são contrários ao novo plano por motivos que perpassam condições financeiras e motivos de ordem técnica. Os demais grupos são favoráveis ao novo plano exatamente pela lógica inversa, ou seja, motivos financeiros e motivos de ordem técnica são identificados como os principais incentivadores da nova modelagem institucional. Os maiores desafios encontrados pela Agência X foram: o enorme período apático da própria organização em relação às questões meritocráticas, como na demora pela realização de seu primeiro concurso público, a falta, no passado, de um comando superior dentro da empresa com o intuito de fortalecer a instituição no cenário nacional e internacional com foco na valorização das atividades e ações realizadas pelo seu corpo funcional, e a acomodação instalada nos empregados, fruto de gestões passadas que não se preocupavam com a gestão por resultados, perdendo o foco no desenvolvimento sustentável. Por fim, neste cenário de estagnação, a Agência X entendeu a lógica de poder e os aspectos culturais envolvidos nos grupos organizacionais, e optou, mesmo sabendo das resistências que seriam encontradas, pela priorização da profissionalização, e gestão por resultados e competência. Desenvolver as competências individuais e coletivas alinhadas com as estratégias organizacionais foram fatores determinantes para a Agência X vencer obstáculos e conseguir, depois de muitos anos, implementar uma ferramenta típica da gestão privada na esfera pública, com foco em competências, mérito e resultados, sendo assim, o maior avanço histórico da organização no sentido de fortalecer seus funcionários e robustecer a empresa dentro do cenário político nacional e internacional.
Resumo:
Neste texto é apresentado o relatório final do projeto 561/06, “Análise Econômica da Reforma Fiscal do PIS-COFINS: Integrando um modelo de micro-simulação com um Modelo de Equilíbrio Geral Computável”. Essencialmente trata-se de uma extensão metodológica do projeto 461/04, visando um aprimoramento da quantificação dos impactos sobre indicadores de bem estar, particularmente pobreza e desigualdade. Além do modelo de Equilíbrio Geral, busca-se uma integração com um modelo de micro-simulação, baseado nas pesquisas domiciliares com o intuito de aprofundar e identificar o impacto que a reforma fiscal teve sobre indivíduos e famílias brasileiras, fazendo com estes sejam identificados com uma precisão muito maior, na medida em que a pesquisa anterior permitia apenas a identificação de um agrupamento representativo da população brasileira, enquanto esta permite a integração no modelo das amostras individuais presentes na PNAD. Os resultados apresentados são sensíveis a nova metodologia utilizada.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
Designamos a sociedade emergente como Sociedade de Economias de Informação/Sociedade da Informação, sendo caracterizada por mudanças constantes e radicais provocadas pelas TIC e novos meios de comunicação, que transformaram a sociedade industrial. A sociedade emergente pode ser a génese de economias diferenciadas: sociedades com meios tecnológicos e informacionais avançados, que criam economias avançadas e sociedades desprovidas desses meios, originando economias pobres. Este quadro desigual interage com o Homem, com o Sujeito, diversificando as estruturas sociais e ocupacionais: os ricos e os que têm emprego equivalem aos que possuem, dominam a informação, o conhecimento e a economia; os pobres, os info-excluídos (desprovidos de informação e conhecimento) e com empregos com baixos níveis de qualificação ou mesmo desempregados, vivem em sociedades com sistemas económicos pobres. Assim sendo, a escola não pode alhear-se desta sociedade emergente. Teoricamente, desenvolvemos dois paradigmas: o educacional e o informacional. O paradigma educacional reúne várias correntes teóricas: cultural, sociocognitiva (construtivista), tecnológica e social. O paradigma informacional baseou-se em literatura de diversos autores, para além do contributo recente de Manuel Castells. Os dois paradigmas permitiram criar a concepção de uma nova escola: a escola construtivista, que dá primazia ao Homem, como Sujeito Cultural. O ensino passa a ser centrado no aluno, com a mediação/orientação dos professores, do bibliotecário escolar, dos pais e das múltiplas fontes de informação, tanto impressas como electrónicas, das TIC e de novos modelos de aprendizagem, baseados na interdisciplinaridade, no desenvolvimento de novas competências, e do pensamento crítico, do trabalho colaborativo e na construção de novos conhecimentos. Neste contexto, a biblioteca escolar assume grande relevância. É o centro informacional, transversal e interactivo na nova escola construtivista, e adopta, na presente investigação, a designação de biblioteca escolar analógica/digital, porque reúne os recursos documentais da galáxia de Gutenberg e os que nasceram no ambiente tecnológico, digitalizado e “webizado”. A biblioteca escolar analógica/digital adequa-se ao paradigma do projecto curricular pelo facto de também valorizar o processo de pesquisa da informação, como etapa cognitiva. No estudo de caso, implementado em três escolas secundárias da Região, desenhamos um modelo de aprendizagem baseado numa tríade interdisciplinar, cujo tema leccionado foi a ”Laurissilva”, isto é, a floresta da ilha da Madeira. A tríade interdisciplinar percorreu a seguinte sequência: Aula de Geografia+Biblioteca escolar+Aula de Informática. Trata-se de um estudo de caso holístico e integrado. Os alunos com a mediação e orientação dos intervenientes, com o apoio das TIC e da Biblioteca escolar, construíram novos conhecimentos, num ambiente colaborativo, interdisciplinar, inovador e interactivo, distintos dos da aula teórica leccionada na sala de aula, fechada e transmissionista.
Resumo:
Os shoppingcenters são grandes instituições repletas de empresas quecompetem entre si formas de como melhor satisfazer as necessidade dosclientes. Sendo assim, cada empresa utiliza-se de estratégias com o intuito deatingir a maior parcela de compradores possíveis sem comprometer suaexistência e sua vantagem competitiva. Este estudo está baseado na teoria dasestratégias competitivas genéricas de Porter (1980; 1985) o qual estabeleceem seu modelo que todas as empresas existentes no mercado possuam pelomenos uma das três abordagens estratégicas (diferenciação, liderança emcusto e enfoque). Desta forma, este trabalho identifica de que maneira estádistribuída as estratégia competitiva nas empresas de shoppingcenters deNatal/RN. Primeiramente buscou-se levantar a relação das estratégias destasempresas com a teoria proposta por Porter (1985) e sua alocação de acordocom os agrupamentos resultantes da combinação das estratégias. Nestemomento, foram aplicados questionários com 89 gerentes de lojas de shoppingcenters que resultou após análises estatísticas em cinco agrupamentos comabordagens válidas. Em seguida foram selecionadas as empresas quepossuíam maior afinidade com cada agrupamento e que melhor representavamos resultados dispostos em cinco clustersacerca da teoria proposta e nestaamostragem foi aplicada entrevista com os gerentes. Os resultados obtidos com as entrevistas validaram a análise dos dados encontrados nosquestionários anteriormente aplicados estando em conformidade com aproposta teoria. Identificou-se também duas modalidades de empresas queutilizavam simultaneamente mais de uma estratégia competitiva (meio-termo),sendo uma dentro e outra fora do modelo proposto pelo autor. Embora omodelo das estratégias competitivas genéricas tenha sido instituído comaspectos voltados as organizações industriais, os resultados obtidos nestetrabalho validaram a aplicação desta teoria em empresas comercias deshopping centers que vem se adequando para obter resultados financeirosmais satisfatórios e melhor posicionamento em relação à concorrência
Resumo:
The Knowledge Management in organizations is a continuous process of learning that is given by the integration of data, information and the ability of people to use this information. The Management Skills is concerned to understand the powers of officials in the face of organizational skills (teams) and professionals (or tasks positions) want. Joints are located in the greater context of the economy of organizatio s and have the same assumption: that the possession of scarce resources, valuable and difficult to imitate gives the organization a competitive advantage. In this sense, this thesis proposes a model of knowledge management based on analysis of GAP of powers, namely the gap between the skills needed to reach the expected performance and skills already available in the organization, officials and trainees of Coordination of Registration of conductors of DETRAN-RN. Using the method of survey research could make an analysis of academic skills, techniques and emotional individual and a team of officials and trainees, identifying levels of GAP's competence in that sector of the organization and suggest a plan for training , A level of expertise for each sector of coordination, and propose a model for Knowledge Management to help the management of GAP's identified
Resumo:
The objective of this work is to draw attention to the importance of use of techniques of loss prevention in small retail organization, analyzing and creating a classification model related to the use of these in companies. This work identifies the fragilities and virtues of companies and classifies them relating the use of techniques of loss prevention. The used methodology is based in a revision of the available literature on measurements and techniques of loss prevention, analyzing the processes that techniques needed to be adopted to reduce losses, approaching the "pillars" of loss prevention, the cycle life of products in retail and cycles of continues improvement in business. Based on the objectives of this work and on the light of researched techniques, was defined the case study, developed from a questionnaire application and the researcher's observation on a net of 16 small supermarkets. From those studies a model of classification of companies was created. The practical implications of this work are useful to point mistakes in retail administration that can become losses, reducing the profitability of companies or even making them impracticable. The academic contribution of this study is a proposal of an unpublished model of classification for small supermarkets based on the use of techniques of loss prevention. As a result of the research, 14 companies were classified as Companies with Minimum Use of Loss Prevention Techniques - CMULPT, and 02 companies were classified as Companies with Deficient Use of Loss Prevention Techniques - CDULPT. The result of the research concludes that on average the group was classified as being Companies with Minimum Use of Techniques of Prevention of Losses EUMTPP, and that the companies should adopt a program of loss prevention focusing in the identification and quantification of losses and in a implantation of a culture of loss prevention
Resumo:
Worldwide, the demand for transportation services for persons with disabilities, the elderly, and persons with reduced mobility have increased in recent years. The population is aging, governments need to adapt to this reality, and this fact could mean business opportunities for companies. Within this context is inserted the Programa de Acessibilidade Especial porta a porta PRAE, a door to door public transportation service from the city of Natal-RN in Brazil. The research presented in this dissertation seeks to develop a programming model which can assist the process of decision making of managers of the shuttle. To that end, it was created an algorithm based on methods of generating approximate solutions known as heuristics. The purpose of the model is to increase the number of people served by the PRAE, given the available fleet, generating optimized schedules routes. The PRAE is a problem of vehicle routing and scheduling of dial-a-ride - DARP, the most complex type among the routing problems. The validation of the method of resolution was made by comparing the results derived by the model and the currently programming method. It is expected that the model is able to increase the current capacity of the service requests of transport
Resumo:
In this thesis, it is developed the robustness and stability analysis of a variable structure model reference adaptive controller considering the presence of disturbances and unmodeled dynamics. The controller is applied to uncertain, monovariable, linear time-invariant plants with relative degree one, and its development is based on the indirect adaptive control. In the direct approach, well known in the literature, the switching laws are designed for the controller parameters. In the indirect one, they are designed for the plant parameters and, thus, the selection of the relays upper bounds becomes more intuitive, whereas they are related to physical parameters, which present uncertainties that can be known easier, such as resistances, capacitances, inertia moments and friction coefficients. Two versions for the controller algorithm with the stability analysis are presented. The global asymptotic stability with respect to a compact set is guaranteed for both cases. Simulation results under adverse operation conditions in order to verify the theoretical results and to show the performance and robustness of the proposed controller are showed. Moreover, for practical purposes, some simplifications on the original algorithm are developed