922 resultados para Cálculo das variações
Resumo:
A falta de eficiência das organizações compromete no longo prazo o desenvolvimento de toda a economia. No caso do mercado de saúde ambiental, uma maior coordenação entre os programas públicos e privados aumentaria a universalização do serviço de controle de endemias para a sociedade. A falta do domínio da tecnologia (como produzir; como atender à preferência do consumidor; como obter ganho de escala; como coordenar e motivar os públicos envolvidos e como fortalecer as instituições de longo prazo) gera perdas de até 49% segundo esta estimativa. Para contribuir com a hipótese acima e para incentivar e promover a eficiência das empresas deste setor, este trabalho calcula a eficiência na prestação de serviço com o método de fronteira estocástica de produção com dados em painel (2005-2008) para a atividade de imunização e controle de pragas. A fronteira de produção retraiu-se neste período. As variáveis: idade da empresa, foco da formação do líder e meta de lucratividade mostram-se significativas para a eficiência da amostra.
Resumo:
Este trabalho, apresentado sob forma de dissertação, apesar de limitado .ao universo da gestão dos recursos materiais - GRM, representa uma tentativa para a criação de meios para medir a eficiência e a eficácia da função gerencial. Foram contemplados dois segmentos do universo da GRM: as relações comerciais com os fornecedores e as atividades de gerenciamento interno das diversas funções técnico-administrativas. Nestas, atingimos um amplo espectro, indo desde a infra-estrutura gerencial até os respectivos custos operacionais. Foram consideradas as seguintes funções: • Planejamento e Controle • Aquisição de Material • Controle e Distribuição de Material • Qualidade e Desenvolvimento o desempenho de cada uma das funções é avaliado por meio de indicadores, resultantes da combinação de dados operacionais, tais como: produção, venda, número de empregados envolvidos, valor das aquisições realizadas, custos de aquisição e de estocagem, valor dos estoques, carga transportada, custos de controle de qualidade e outros relacionados à GRM de uma organização. Consideramos que três orientações deste tabalho apresentam certo grau de originalidade. A primeira refere-se ao ajustamento dos valores monetários envolvidos, a fim de adequá-los às características inflacionárias da nossa economia. A segunda é o tratamento estatístico dos dados para que sejam reduzidas eventuais distorções. Assim, teremos indicadores próximos da realidade, baseados em números correntes e expurgados de variações aleatórias. A terceira orientação é o uso da informática para proporcionar a maior disseminação possível dos indicadores, seja na entrada de dados, no ajustamento, no cálculo, na armazenagem, na recuperação, no tratamento estatístico e na análise e criação de padrões de desempenho gerencial. Como anexo à dissertação, estamos incluindo disquetes em 3 1/2" e 5 1/4", contendo software interativo, denominado SIGMAT - Sistema de Indicadores para a Avaliação do Desempenho da Gestão dos Recursos Materiais. Este aplicativo executa todas as propostas apresentadas na presente dissertação.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
Constata-se, com freqüência, que planos e projetos bem elaborados, com recursos suficiente e adequados, não conseguem ser implementados com sucesso, ainda que tenha havido uma previa e cuidadosa identificação dos elementos que poderiam ter influência no processo de implementação. Isto decorre do fato de que qualquer implementação seria ê afetada por inumeros eventos imprevisíveis, o que" a torna uma tarefa imensamente difícil, mesmo sob as melhores condições. Nesta dissertação, um estudo de caso, abordamos a implementação da Política de Terminalidade Antecipada no Estado do Rio de Janeiro. Há alguns anos atrás, o Rio de Janeiro lançou-se ã implementação da Política de Terminalidade Antecipada buscando adequar currículos, metodos e duração da educação básica ã sociedade agrícola do interior do Estado. Tal Política foi iniciada em condições aparentemente as mais auspiciosas e parecia não envolver nenhum elemento dramático. Prudentemente, decidiu-se concentrar a implementação, num primeiro momento, em Cordeiro e municípios vizinhos. Com base no experimento, a Política seria extendida a outras áreas do Estado. Previa-se, no decorrer da implementação, uma ação integrada das Secretarias de Estado de Agricultura, de Educaçao e Cultura, e de Saude. O processo de implementação desenvolveu-se durante dois Governos Estaduais sucessivos e está entrando em um terceiro.
Resumo:
Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.
Resumo:
O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.
Resumo:
resumo não disponível.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
O objetivo fundamental da Contabilidade, atualmente, é fornecer informações econômicas relevantes para que cada usuário possa tornar suas decisões e realizar seus julgamentos com segurança. A doutrina contábil, entretanto, está estruturada em torno dos denominados "princípios contábeis geralmente aceitos", de origem remota e de características conservadoras, que dificultam e, as vezes, até mesmo impedem o cumprimento daquele objetivo. Se não houvesse flutuação de preços esses princípios serviriam melhor como base para o fornecimento de informações adequadas, representativas da realidade empresarial, aos usuários de demonstrativos contábeis.
Resumo:
Essa dissertação possui como objetivo traçar, uma nova metodologia de classificação de patogenicidade da Escherichia.coli,.através de um índice no qual, além do número de animais mortos, também foi considerado o tempo de morte e a capacidade da cepa causar lesão compatível à colibacilose em pintos de 1 dia. Para gerar esse critério, foram utilizadas 300 amostras de E.coli oriundas de lotes com lesão de celulite, cama desses mesmos aviários e amostras de quadros respiratórios. Através desse experimento foi possível observar que as amostras de E.coli originadas das camas dos aviários, apresentavam índice de patogenicidade significativamente menor do que aquelas isoladas das lesões cutâneas e de quadros respiratórios.Também foi associado às cepas de E.coli a capacidade de causar lesões de: pericardite, perihepatite, aerossaculite, peritonite e celulite. Dentre as lesões citadas somente a celulite foi considerada de apresentação significativamente mais freqüente em comparação às outras.
Resumo:
Os afundamentos de tensão são reduções de curta duração entre o 10% a 90% da magnitude de tensão eficaz. Usualmente, estes afundamentos são associados com falhas no sistema de energia elétrica, mas podem ser causados pela elevada corrente de partida de motores de indução ou energização de transformadores. Apesar de sua curta duração, tais eventos podem causar sérios problemas para alguns equipamentos. As conseqüências dos afundamentos de tensão sobre a máquina assíncrona são: perda de velocidade durante o afundamento e picos de corrente e de conjugado que aparecem na queda de tensão e no instante de restabelecimento. Este estudo visa analisar o comportamento da máquina assíncrona diante de afundamentos de tensão e as características destes, devido à influência do motor assíncrono como carga. Enfocando-se neste ponto, é que foram considerados diferentes tipos de afundamentos devido a diferentes falhas, que produziram quedas de tensão nos terminais da máquina assíncrona com variações na magnitude e no argumento de tensão. As simulações foram realizadas aplicando um método numérico tradicional e um método simplificado, o método simplificado lineariza as equações diferenciais elétricas da máquina assíncrona considerando a velocidade mecânica constante, para o cálculo dos transitórios elétricos no início da queda de tensão e no restabelecimento da mesma. Os transitórios obtidos pelo método numérico tradicional (Runge Kutta quarta ordem) e o método simplificado foram comparados, para verificar a precisão deste método com respeito ao numérico tradicional, concluindo-se, que o método simplificado poderá aplicar-se em máquinas de baixo escorregamento e elevada constante de inércia. Além disso, foram realizados experimentos, submetendo o sistema a diferentes quedas de tensão, considerando diferentes magnitudes e durações no afundamento.
Resumo:
Este trabalho explora um importante conceito desenvolvido por Breeden & Litzenberger para extrair informações contidas nas opções de juros no mercado brasileiro (Opção Sobre IDI), no âmbito da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBOVESPA) dias antes e após a decisão do COPOM sobre a taxa Selic. O método consiste em determinar a distribuição de probabilidade através dos preços das opções sobre IDI, após o cálculo da superfície de volatilidade implícita, utilizando duas técnicas difundidas no mercado: Interpolação Cúbica (Spline Cubic) e Modelo de Black (1976). Serão analisados os quatro primeiros momentos da distribuição: valor esperado, variância, assimetria e curtose, assim como suas respectivas variações.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.