996 resultados para Índice de perdas
Resumo:
Resumo não disponível.
Resumo:
O presente estudo elabora um índice de violência para o Estado do Rio Grande do Sul, em seus 467 municípios, durante o período de 1992 a 1999. Não se buscaram explicações para o comportamento das taxas, mas somente uma descrição de sua evolução ao longo do período. Desta forma, procura-se um processo analítico que permita que, mais tarde, sejam trabalhadas as relações, conceitos e papéis frente ao processo de desenvolvimento humano e regional. A pesquisa trabalha com índices de criminalidade que se fundamentam no critério da agilidade da informação, proporcionada por estas medidas, para o diagnóstico dos problemas da violência municipal e para a elaboração de políticas voltadas à segurança. Em janeiro de 2000 foi divulgado o trabalho desenvolvido pela Fundação de Economia e Estatística Siegfried Emanuel Heuser (FEE)1, intitulado Índice Social Municipal Ampliado (ISMA) para o Rio Grande do Sul (1991-1996). O objetivo do mesmo era comparar as posições intermunicipais a partir de “indicadores sociais que foram selecionados”2 e definidos em blocos de educação, saúde, renda e condições de domicílio e saneamento. Desta forma, comparou-se e classificou-se num ranking os melhores e piores municípios do Estado do Rio Grande do Sul pela média do período de 1991 a 1996. Buscando complementar e aprimorar o trabalho, este estudo tem a proposta de acrescer, nos mesmos municípios, o bloco segurança, proporcionando uma maior integração dos resultados a partir dos dados sintetizados e complementados. Reunindo os resultados anteriormente apurados pela pesquisa da FEE com aqueles que serão obtidos por este trabalho atingir-seá um melhor conhecimento da realidade sócio-econômica gaúcha. Faz parte integrante deste trabalho um disco compacto, cujas especificações encontram-se no Capítulo 5.
Resumo:
A segurança do trabalho é um elemento muito importante para o sucesso de um empreendimento, visto que influencia nos custos, produtividade, perdas e imagem da empresa, assim como está relacionado com o bem-estar de todos os envolvidos com o trabalho. Apesar de sua importância, a indústria da construção ainda apresenta índices de acidentes relativamente elevados. Um dos esforços recentes mais importantes no país no sentido de melhorar o nível de segurança nas obras foi a publicação da nova versão da norma NR 18 (Condições e Meio Ambiente de Trabalho na Indústria da Construção), do Ministério do Trabalho, que é dirigida exclusivamente para o setor. Considerando esse contexto, o presente trabalho faz um levantamento do cumprimento dessa norma em diversas empresas, totalizando 67 canteiros de obras espalhados por 6 cidades brasileiras. Baseando-se nos dados obtidos, em entrevistas e em outras informações é feita uma análise do comportamento dessas empresas em relação à aplicação da NR 18. Com base nessa análise, são apresentadas algumas sugestões para o aperfeiçoamento da norma. O estudo mostra que a NR 18 ainda é muito pouco cumprida nos canteiros de obras, apresentando um índice médio de cumprimento de 51%. O destaque negativo foi o desempenho das mesmas em relação ao requisito proteções periféricas. Em média, neste caso, apenas 6% do que é exigido pela norma está sendo atendido.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).
Resumo:
Com o avanço da globalização, surgem dúvidas quanto às conseqüências desse significativo processo para os países em desenvolvimento. Apesar disso, alguns fatos são inquestionáveis, como, por exemplo, a necessidade que terão as empresas, em especial as brasileiras, de buscar novas “fórmulas” para continuar competindo neste novo contexto globalizado. A tecnologia deve permanecer sendo um “divisor de águas” entre os líderes de mercado e seus seguidores, no entanto, seria razoável supor que a competição não se restrinja somente a esse aspecto, devendo abranger outros, também importantes, como é o caso dos processos de produção. Nesse contexto, surge a Produção Enxuta, que, por atacar sistematicamente os desperdícios dentro dos processos produtivos, busca a maximização da eficácia operacional dos mesmos, e por essa razão, tem-se mostrado como uma opção bastante exitosa dentro da competição globalizada. Apesar disso, a adoção da Produção Enxuta nas empresas ocidentais não tem acontecido na proporção e velocidade que permitissem a necessária redução da vantagem competitiva que as empresas japonesas auferiram através do seu uso. Isso se deve, no entender desta pesquisa, à falta de um entendimento mais profundo dos seus conceitos, elementos, e, principalmente, à ausência de um cuidado maior por parte das referidas empresas em estabelecer uma coerência com a sua própria política competitiva, ao tentar introduzir esses novos conceitos nos seus sistemas fabris. Este trabalho parte da premissa de que deve existir essa clara ligação entre as ações de melhoria executadas no “chão-de-fábrica” e a própria estratégia competitiva da empresa Nesse sentido, propõe o modelo de uma abordagem estruturada que pode permitir tal coerência. Desta forma é apresentada uma revisão bibliográfica, dividida em 4 partes onde, na primeira são abordados os conceitos básicos de estratégias competitivas, na segunda são revisados os sistemas de produção, em especial o Sistema de Produção em Massa, para assim permitir o seu contraste com a Produção Enxuta, apresentada logo após, na terceira parte. E, finalmente, na quarta parte, devido à sua relevância dentro da lógica de gestão enxuta de produção, é feita uma releitura da Autonomação, seus conceitos e potencialidades como preparação ao estudo de caso apresentado no final do trabalho, o qual foi desenvolvido na Pirelli Pneus S.A., onde o referido modelo foi aplicado com sucesso no processo de um produto considerado maduro, que já demonstra, inclusive, características de um commodity. A pesquisa é finalizada com a resenha dos resultados alcançados, bem como com a apresentação de considerações do autor quanto às dificuldades e peculiaridades relevantes relativas à experimentação do modelo proposto, concluindo-se, então, que a Eliminação das Perdas e a Autonomação podem servir de base para uma estratégia de produção com potencial para alavancar toda a estratégia competitiva da empresa.
Resumo:
A redução do espaçamento entre fileiras, de 40 para 20 cm, resulta em fechamento mais rápido da área, aumentando a interceptação da radiação, índice de área foliar, taxa de crescimento da cultura e, como conseqüência, o rendimento. Nestas condições, poderia haver aumento da tolerância da soja ao desfolhamento. O objetivo do trabalho foi avaliar se a redução do espaçamento entre fileiras, em semeadura direta, influenciaria a tolerância da soja a perda de área fotossintética. O experimento foi conduzido na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS, em 2000/2001. O delineamento foi de blocos ao acaso, com quatro repetições, em parcelas sub-subdivididas. Os tratamentos foram desfolhamentos em três estádios de desenvolvimento (V9-nono nó, R2-florescimento pleno e R5-início do enchimento de grãos), dois espaçamentos entre fileiras (20 e 40 cm) e três níveis de desfolhamento (33, 67 e 100%) e uma testemunha. Foi utilizada a cultivar FT-Abyara (semi-tardia). O rendimento de grãos variou dependendo do tratamento aplicado. O desfolhamento no período vegetativo não reduziu o rendimento. Já no período reprodutivo os desfolhamentos resultaram em decréscimo do rendimento, sendo o estádio R5 o mais crítico, com perdas de até 82% do rendimento, em virtude da redução em todos os componentes do rendimento. O rendimento médio de grãos da testemunha, não desfolhada, no espaçamento de 20 cm (4134 kg/ha) foi 21% superior ao de 40 cm (3413 kg/ha) e manteve-se sempre superior, em todos os níveis de desfolhamento. O componente que mais influenciou o rendimento foi o número de legumes m-2, que foi sempre superior no espaçamento de 20 cm. Estes resultados indicam que para a cultivar testada, em semeadura direta e em ano com condição favorável a alto potencial de rendimento, a redução do espaçamento de 40 para 20 cm entre fileiras, proporciona aumento da tolerância ao desfolhamento.
Resumo:
O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.
Resumo:
O planejamento urbano possui um vasto campo a ser descoberto no que se refere às exigências mundiais ambientais existentes atualmente. Não apenas existem novas diretrizes a serem alcançadas, mas as cidades estão em constante evolução e, assim, a complexidade das mesmas também se torna um desafio. A partir dessas questões, o presente trabalho vem contribuir na elaboração de uma metodologia que facilite a construção de indicadores urbanos, principalmente naqueles que possam avaliar os limites do crescimento das cidades, representados aqui através da integração entre impermeabilização do solo urbano e densidade populacional. A escolha de indicadores é função de cada pesquisador que possui conhecimento sobre os problemas, ambientais ou não, existentes nas cidades. Qualquer cidade, de qualquer porte, em qualquer lugar do planeta pode estar apresentando um problema ambiental relacionado às funções urbanas. Muitos podem ser os indicadores ambientais urbanos, mas nesta pesquisa são relacionados dois tipos de indicadores: a densidade populacional e as superfícies impermeáveis urbanas, pois acredita-se que com o crescente aumento de construções urbanas, um descompasso é causado na capacidade de absorção do solo durante períodos de chuva. A impermeabilização do solo gera problemas de enchentes que, muitas vezes, causa inúmeros impedimentos como alagamentos de vias ou nas próprias construções urbanas que afetam a população, causando inclusive mortalidade no caso de pessoas e carros arrastadas pela forte corrente das águas Uma metodologia simples pode facilitar o trabalho de planejamento de cidades como a utilização de procedimentos normalmente aplicados em estudos de recursos hídricos com o acréscimo de indicadores que também refletem as condições urbanas de bacias hidrográficas. As ferramentas utilizadas por esta pesquisa são: a) programas computacionais de geoprocessamento que agilizam e possibilitam a interconexão de diferentes informações urbanas localizadas no espaço; b) programas de sensoriamento remoto que atualizam informações cadastrais sobre a cidade utilizando imagens de satélite compatíveis; e, finalmente, c) modelos geoestatísticos que estimam valores próximos à realidade para toda a superfície urbana estudada, pois, muitas vezes, os dados disponíveis não cobrem toda a extensão da área em estudo Os resultados fornecidos através desses procedimentos metodológicos se mostraram satisfatórios no que se refere a análise da transformação das condições naturais de drenagem da bacia hidrográfica estudada. Foram percebidas alterações que prejudicam o desempenho de drenagem urbana em locais onde a própria topografia da região, juntamente com os dados de impermeabilização do solo e de densidade populacional contribuem para situações de alagamentos. Com essas informações é possível prever esses locais problemáticos e, então, melhorar as propostas de planejamento urbano dessas regiões. Considera-se que a pesquisa estimula a utilização de bacias hidrográficas como unidades de planejamento ambiental em cidades, pois é através delas que se pôde compreender os efeitos dos adensamentos urbanos como as enchentes urbanas que são atualmente um grande problema enfrentado nas cidades brasileiras.
Resumo:
O índice crioscópico é um dos parâmetros analíticos de precisão utilizados para determinar a qualidade físico-química do leite. É um valor diretamente ligado ao extrato seco do leite, mais especificamente em relação a presença, maior ou menor, de lactose e cloretos. A adição de água ao leite, como mecanismo de fraude, altera os valores do índice crioscópico. Em virtude disto, o mesmo é utilizado como um dos critérios para desclassificação de leite. O problema se estabelece quando os padrões determinados em legislação não condizem com as características reais do leite produzido. O presente trabalho objetivou comparar os resultados do índice crioscópico do leite tipo B “in natura” da bacia leiteira do Vale do Taquari com o valor estabelecido na legislação vigente, bem como observou as alterações deste parâmetro ao longo de um ano. O projeto foi desenvolvido no período de março de 2001 a fevereiro de 2002, com a participação de 10 propriedades produtoras de leite tipo B, onde as coletas foram realizadas mensalmente, perfazendo um total de 573 amostras no período. Os resultados analíticos foram obtidos mediante as análises de acidez, temperatura, densidade, gordura, extrato seco total (EST), extrato seco desengordurado (ESD) e índice crioscópico (IC). Quanto ao comportamento do índice crioscópico, o diagnóstico confirmou a necessidade imprescindível da implementação de parâmetros legais regionais, respeitando as características específicas de cada região. A pesquisa apresentou para o leite tipo B “in natura” do Vale do Taquari, um índice crioscópico médio de –0,537 °H, enquadrando-se no parâmetro estabelecido pela Instrução Normativa Nº 51 de 18/09/02, ou seja, máximo de –0,530 °H. Este índice também apresentou Valor médio mais baixo nos meses de junho e julho e as variações mensais individuais foram significativas. Estes comportamentos indicam que a alimentação ofertada ao rebanho influencia nestas alterações.
Resumo:
A liberalização da conta capital foi um fato marcante na década de 1990, no Brasil. Este trabalho se propõe a construir um índice baseado em Cardoso e Goldfajn (1997), para estudar, em termos quantitativos, a influência da legislação de controle de capital. Para isso, foi realizado um minucioso trabalho de pesquisa que abordou cerca de 200 principais normativos editados pelo Banco Central e Ministério da Fazenda, que afetaram o fluxo de capital no período 1990 - 2000. Concluímos que esse período foi marcado pela liberalização do fluxo de capital, com alguns subperíodos onde houve restrição, principalmente, à saída de capital. Nosso estudo também confirmou que o diferencial entre a taxa de juros doméstica e externa, o Plano Real, a legislação e os efeitos provocados pelas crises mexicana, asiática e russa foram fatores determinantes para explicar o fluxo de capital total entre 1990 e 2000. Ou seja, os fatores pull, push e efeito contágio foram importantes, conjuntamente, para determinar o fluxode capital total
Resumo:
Este trabalho tem como objetivo geral verificar como uma empresa gerencia seus riscos trabalhistas com vistas a preveni-los. É um estudo de caso único, de natureza descritiva e qualitativa. Foi desenvolvido junto ao Grupo Eberle Mundial, através de entrevista do Gerente de Recursos Humanos, questionário auto-aplicado por sete membros do corpo executivo da organização, exame de documentos e análise de artigos de revistas e de jornais. Paralelamente, buscou experiências e opiniões de quatro especialistas da área trabalhista, também mediante questionário auto-aplicado. Em face dos resultados obtidos, o trabalho descreve a forma de gerenciamento de riscos trabalhistas adotada pelo Grupo Eberle Mundial e atende os objetivos específicos nos termos adiante sintetizados. Demonstra que o Grupo mantém rotinas para identificação de riscos trabalhistas, porém, não pratica a definição prévia do que sejam riscos relevantes e não relevantes. Identifica uma diversidade de riscos trabalhistas percebidos pelo Grupo e verifica que esses não abrangem riscos operacionais. Mostra que o Grupo criou métodos e instrumentos de trabalho próprios para o gerenciamento de seus riscos trabalhistas, atua de forma permanente na prevenção desses e faz a revisão anual de seus processos, buscando chegar à incorporação dessa filosofia à cultura da empresa, contudo, não mantém um sistema que integre seus procedimentos, na forma proposta pela literatura. Confirma que, através do projeto implantado pela nova administração, o Grupo que, em 1998, estava com sua sobrevivência comprometida, até 2003 já reduziu em mais de 50% as perdas financeiras que vinha sofrendo e restabeleceu sua credibilidade e imagem internas e externas. Constata que existe comprometimento da alta direção do Grupo com o gerenciamento de riscos trabalhistas, todavia, esse comprometimento não é do conhecimento de todos membros do corpo executivo da organização. Aponta que o Grupo não mantém área específica para gerenciamento de seus riscos trabalhistas, nem tem claro quem são os profissionais responsáveis por esses procedimentos.
Resumo:
O objetivo desta dissertação é avaliar se há correlação significativa entre a receita orçamentária municipal, em termos per capita, e seu grau de desenvolvimento humano medido pelo indicador IDH. Para tanto foi proposto um modelo econométrico com o emprego de dados em painel aplicado a uma amostra de 2264 cidades brasileiras nos anos de 1991 e 2000. Para testar a robustez dos resultados preliminares, os municípios foram segregados ainda conforme a região geográfica em que estão localizados e segundo o tamanho da população residente em seus territórios. Independentemente do agrupamento efetuado os resultados se mantiveram bastante estáveis, sendo possível concluir que a relação entre a receita orçamentária per capita municipal e o IDH é muito fraca, embora estatisticamente significante. Outra importante conclusão deste estudo é que quanto pior os indicadores sociais do município observado, maior é o aumento marginal esperado no IDH em função de acréscimos na sua arrecadação per capita.
Resumo:
Este artigo tem como objetivo verificar a robustez do contéudo preditivo de regras da análise técnica, usando informações intradiárias do mercado futuro do índice de ações da Bolsa de Valores de São Paulo (Ibovespa Futuro). A metodologia sugerida foi a avaliacão em grupos, conforme os resultados de Baptista (2002), tal que as regras são obtidas conforme os resultados em alguns dos subperíodos estudados, sendo testadas em períodos subsequentes. Como resultado, obteve-se robustez ao longo do tempo e à taxa de amostragem dos dados no desempenho das regras acima do benchmark (buy-and-hold), porém considerações realistas acerca do momento de compra, assim como da corretagem (exceto grande investidor), podem reduzir substancialmente os ganhos