976 resultados para Belisario, Flavio
Resumo:
Incialmente, este trabalho buscou entender a origem e a evolução das abordagens das capacitações e do desenvolvimento humano. Este processo exigiu o entendimento de abordagens relacionadas, tais como a do Desenvolvimento Econômico e Teorias das Necessidades Humanas (e teoria das necessidades básicas). Exigiu também, o entendimento de como essas teorias foram operacionalizadas, como são medidas, quais as limitações que apresentaram e em que contribuíram para a construção das abordagens atualmente em uso. Por fim, buscou explorar possibilidades práticas de aplicação da Abordagem das Capacitações. Utilizando dados primários, foram utilizadas diferentes técnicas estatisticas que vêm sendo exploradas na literatura internacional no processo de operacionalização dessa abordagem. Os dados são provenientes de um survey que avaliou o programa Você Apita. A partir do estudo desenvolvido pode-se perceber uma evolução signficativa tanto em termos práticos quanto teóricos nas questões relativas ao desenvolvimento humano. Porém, apesar das contribuições já existentes, a operacionalização da abordagem das capacitações precisa ser melhor explorada. No que tange a comparação entre a Abordagem das Capacitações (CA) e Teoria das Necessidades Humanas, nota-se que são abordagens similares em vários aspectos. As críticas direcionadas a Teoria das Necessidade Humanas (HNT) pelos simpatizantes da Abordagem das Capacitações, são apropriadas quando direcionadas apenas a Teoria das Necessidade Básicas, mas não a Teoria das Necessidade Humanas como um todo. Na análise do IDH percebe-se que o indice representa uma evolução se comparado aos indices anteriores porém, não é capaz de acrescentar muito em termos de mensuração das capacitações das pessoas. Por fim, a utilização de técnicas alternativas para avaliar a eficácia de políticas socias em termos de promoção de capacitações, evidencia robustez entre as técnicas atualmente em uso na literatura internacional e constituí-se num exemplo de operacionalização da abordagem.
Resumo:
A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.
Resumo:
A importância relativa de diversas origens da heterogeneidade do desempenho das firmas tem sido discutida em termos teóricos e testada empiricamente, com ênfase nos efeitos da indústria, da corporação, dos recursos idiossincráticos da firma e do ano. Este trabalho estudou a influência do país sobre o desempenho das firmas. Efeitos significantes e significativos do país e da interação indústria-país foram identificados. A amostra analisada incluiu mais de 80.000 observações e 11.000 firmas em 37 países e 256 indústrias em um período de 10 anos. Um modelo linear hierárquico com quatro níveis permitiu identificar que os efeitos país, indústria e indústria-país têm aproximadamente a mesma importância relativa e, em conjunto, quase a mesma magnitude do efeito firma. A relevância destes efeitos foi consistente entre as diferentes divisões do SIC (Standard Industrial Classification) assim como se manteve estável ao longo do tempo. Um modelo para explicação da variância do desempenho entre países foi proposto e estimado, em caráter exploratório, na análise da relação entre competitividade das nações e rentabilidade das firmas.
Resumo:
Esta pesquisa assenta-se num campo emergente dos estudos organizacionais e de estratégia: Cognição Gerencial & Organizacional (Managerial e Organizational Cognition, daqui em diante, MOC). Avanços teóricos e metodológicos no campo da Ciência Cognitiva têm viabilizado o acesso, mapeamento e análise de como indivíduos produzem sentido e agem de modo inteligente. A aplicação desse ferramental tem permitido a mensuração do que se convencionou chamar “complexidade cognitiva situacional”, ou seja, o grau de diferenciação e integração com que uma pessoa percebe determinada situação, problema, objeto ou fenômeno. Tem havido, no entanto, controvérsias sobre a relação entre essa variável e, em ultima análise, o desempenho do indivíduo na realização de uma atividade e no alcance de resultados. Enquanto alguns estudos têm encontrado apenas relações residuais, grande parte das pesquisas têm encontrado relações positivas, na forma de “U invertido” ou, até mesmo, negativas entre complexidade cognitiva e desempenho. Nosso objetivo principal aqui é identificar como se deu essa relação na indústria siderúrgica no Brasil no período de 2001 a 2003. Para atingir esse objetivo estruturamos esta pesquisa como segue: no primeiro capítulo identificamos as principais bases teóricas e conceituais do campo. Advinda predominantemente da Filosofia, Sociologia e Ciência Cognitiva, essa base fornece os alicerces sobre os quais a Teoria de MOC, de um modo geral e esta pesquisa, em particular, se fundamentam. No capítulo seguinte apresentamos o campo de MOC em si, com especial ênfase sobre suas origens, processos cognitivos estudados, métodos de pesquisa e as principais relações causais exploradas. Em seguida apresentamos um estudo empírico realizado com dois experts e com os CFOs de três das principais companhias siderúrgicas no Brasil. Buscamos, primordialmente, identificar dois tipos de fenômenos nos dados obtidos: diferenças de complexidade cognitiva entre os experts e os executivos, e o tipo de relação existente entre a complexidade cognitiva dos executivos e o desempenho organizacional. Nesse capítulo apresentamos o problema de pesquisa, os objetivos da investigação, as hipóteses, a metodologia utilizada, os resultados e as análises. Finalmente, concluímos com alguns apontamentos em relação ao campo de MOC e à pesquisa empírica, avaliando algumas forças e fraquezas deste trabalho e sugerindo direções futuras de pesquisa nesse campo.
Resumo:
Com Deng Xiaoping a China deixou a luta de classes e partiu para uma estratégia focada no crescimento. Com o apoio do governo conseguiu implementar a estratégia genérica de liderança em custo. Esse trabalho utiliza a ferramenta VRIO para concluir que essa estratégia pode ser considerada como uma vantagem competitiva sustentável
Resumo:
Resumo não disponível.
Resumo:
Essa dissertação apresenta a aplicação em um estudo de caso,da metodologia Quality Function Deployment - QFD - Desdobramento da Função Qualidade, para o desenvolvimento e planejamento da qualidade de veículos destinados ao transporte coletivo de passageiros. Para identificar as necessidades dos clientes, realizou-se uma Pesquisa de Marketing, do tipo qualitativa, com questionário de perguntas abertas, utilizando-se entrevistas em profundidade e grupos focados. O desdobramento das qualidades demandadas pelos clientes,foi realizado utilizando-se um modelo conceitual para o produto, através de oito matrizes, sendo a primeira, a matriz da qualidade, e a última, a matriz dos custos relativos aos processos de montagem. Através das conversões e considerações sobre importâncias, dificuldades de atuação, tempo necessário para adequações, custos para melhorias e outros critérios, foram identificados os itens a serem priorizaos quanto ao planejamento da qualidade. A partir dessas priorizações foram estabelecidos planos de melhoria da qualidade para as características de qualidade, componentes do produto, processos de montagem, recursos humanos e recursos de infra-estrutura, definidos nas matrizes de QFD.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.
Resumo:
Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.
Resumo:
A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
We examine the problem faced by a company that wishes to purchase patents in the hands of two di¤erent patent owners. Complementarity of these patents in the production process of the company is a prime e¢ciency reason for them being owned (or licenced) by the company. We show that this very same complementarity can lead to patent owners behaving strategically in bargaining, and delaying their sale to the company. When the company is highly leveraged, such ine¢cient delay is limited. Comparative statics results are also obtained. Relevant applications include assembly of patents for drug treatments from the human genome, and land assembly.
Resumo:
In this paper we report the results of an experiment designed to examine the properties of a hybrid auction - a Dutch-Vickrey auction, that combines a sealed bid …rst-price auction with a sealed bid second-price auction. This auction mechanism shares some important features with that used in the sale of the companies constituted through the partial division of the Telebras System - the government-owned Telecom holding in Brazil. We designed an experiment where individuals participate in a sequence of independent …rst-price auctions followed by a sequence of hybrid auctions. Several conclusions emerged from this experimental study. First, ex-post e¢ciency was achieved overwhelmingly by the hybrid auctions. Secondly, although overbidding (with respect to the risk-neutral Bayesian Nash equilibrium) was a regular feature of participants’ bidding behavior in the …rst-price auctions — as it is commonly reported in most experimental studies of …rst-price auctions, it was less frequent in the hybrid auctions. By calibrating the results to allow for risk-averse behavior we were able to account for a signi…cant part of the overbidding. Finally, we compared the revenue generated by the hybrid auction with that generated by a standard …rst-price sealed bid auction and the results were ambiguous.