949 resultados para Indexação automática


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Regime de Meta de Inflação se Tornou Dominante na Formulação de Políticas dos Bancos Centrais nos Últimos 15 Anos. a Teoria Subjacente, Particularmente a Regra de Taylor, Pode ser Vista como uma Competente Generalização Desse Comportamento. de um Ponto de Vista Keynesiano, Ele Será Aceitável se Encararmos a Taxa de Juros de Equilíbrio como Apenas uma Convenção Variável e se a Combinarmos ou com uma Taxa de Câmbio ou com uma Meta de Emprego. no Caso do Brasil, Porém, Além Dessa Ressalva Teórica e da Condição do Duplo Mandato, o Regime de Metas de Inflação Enfrenta um Problema de Incoerência. esta é uma Política que se Destinava a ser Utilizada na Administração da Política Monetária, não na Mudança do Regime de Política Monetária . a Política de Metas de Inflação foi Introduzida no Brasil em 1999 como um Substituto para a Âncora Cambial, que Havia Sido Usada Desastrosamente entre 1995 e 1998. Durante Muitos Anos, o País Havia Enfrentado uma Armadilha de Alta Taxa de Juros / Taxa de Câmbio Valorizada E, Portanto, Precisava Mudar seu Regime de Política Monetária Antes de Eventualmente Adotar o Regime de Meta de Inflação. Essa Mudança, que Começou com a Flutuação de Janeiro de 1999, Deveria ter Sido Completada com Reformas Específicas (Fim da Indexação dos Serviços Públicos e dos Próprios Juros Básicos). no Entanto, em Lugar de Desenvolver uma Estratégia para Reduzir a Taxa de Juros, o Governo Continuou a Definir a Inflação como o Principal Problema a ser Enfrentado e Adotou uma Política Formal de Metas de Inflação. a Conseqüência é que Desde 1999 Essa Política se Tornou o Obstáculo que a Economia Brasileira Enfrenta para Escapar da Armadilha da Taxa de Juros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta a minha versão da história da inflação inercial. A primeira formulação completa dessa teoria está num artigo meu e de Nakano, de 1983; e o primeiro artigo que propôs um choque de preços combinado com uma tabela de conversão é de 1984, também dos mesmos autores. Resende e Arida escreveram em 1984 o primeiro trabalho propondo uma moeda indexada para neutralizar a inércia; Francisco Lopes, também em 1984, relacionou a inflação inercial com hiperinflação. As principais referências estão aqui claramente apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas para a geração de eletricidade a partir de fontes renováveis de energia, com um mínimo impacto ambiental, apresentam uma contribuição energética cada vez mais significativa, sendo importante conhecer em detalhe o comportamento dos mesmos. A radiação solar e o vento podem se mostrar complementares, sendo interessante empregar uma combinação eólica e fotovoltaica em um sistema único. Os sistemas assim constituídos recebem o nome de sistemas híbridos eólico-fotovoltaicos e em algumas aplicações podem mostrar vantagens em relação aos sistemas singelos. Esta Tese tem por objetivo contribuir com o conhecimento sobre o comportamento de sistemas híbridos eólico-fotovoltaicos de pequeno porte. Para obter dados experimentais foi montado um protótipo no Laboratório de Energia Solar, constituído de um painel de 420 Wp e de um aerogerador de 400 W de potência nominal, sendo que para o acionamento do aerogerador foi instalado um túnel de vento. Para a observação do comportamento do sistema híbrido foi também montado um sistema de monitoramento, sendo analisadas na Tese as incertezas associadas às medições realizadas. O sistema de monitoramento forma parte de um sistema mais amplo, que permite também o controle da velocidade do vento no túnel de vento e a ativação automática de um conjunto de cargas resistivas para simular o perfil de consumo. A Tese discute os modelos matemáticos de todos os componentes do sistema, assim como as principais configurações que podem ser dadas aos sistemas híbridos. Foram realizadas várias experiências com o sistema híbrido que permitiram a coleta de informações sobre o comportamento dos componentes independentes e como um todo Essas informações, por sua vez, serviram de base para a validação de modelos matemáticos dos diversos componentes do sistema, que foram integrados em um programa computacional de simulação elaborado como parte desta Tese. Além dos resultados do funcionamento do sistema híbrido experimental, a Tese mostra os resultados do programa de simulação e faz uma estimativa da aplicação de sistemas híbridos semelhantes em localidades de Rio Grande do Sul, a partir da informação do Atlas Eólico do Estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examina, mediante a realização de estudo empírico no âmbito do mercado de capitais, se a decisão de tornar obrigatória a divulgação de dados contábeis calculados consoante a sistemática de correção monetária integral veio a contribuir para o aprimoramento da publicação de resultados, na sua função basilar de propiciar informação de utilidade para os usuários

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A situação de alta inflação vigente na economia brasileira desde meados da década de oitenta, força as organizações empresariais a encontrar mecanismos que alimentem seu sistema de informaç5es e possibilitem o cumprimento de contratos e o processo de tomada de decisões. Utilizando a técnica do estudo de caso, este trabalho acompanha a experiência de uma organização empresarial em seu processo de adaptação à realidade econômica, após diagnosticar que o seu sistema de informações apresentava um nível muito reduzido de eficácia, ao não incorporar dados sobre as variações de preços na economia. O uso da indexação de valores monetários acompanhado de medidas de reorganização administrativa, da incorporação de novos controles econômicos e financeiros e da expansão da automatização levaram a empresa a um novo estágio de gestão

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho estuda a influência da inflação sobre o nível do salário real, e o comportamento deste último frente a um processo de aceleração dos preços. Inicialmente é desenvolvida uma discussão teórica sobre a relação entre estas variáveis, inclusive sob regimes de indexação alternativos. Em seguida, são realizados levantamentos de dados da economia brasileira e testes econométricos visando a observação empírica do objeto de estudo descrito acima

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a avaliação da importância e da satisfação dos clientes internos com cada uma das atividades executadas pelo setor de Pesquisa e Desenvolvimento (P&D) de uma indústria de alimentos, subsidiando melhorias na sua prestação de serviços. A base deste estudo é a determinação das atividades executadas pelo setor de P&D que apresentam uma diferença significativa entre a importância e a satisfação segundo os clientes internos. A priorização das atividades que necessitam de ação urgente foi obtida através da análise de importância-desempenho (IPA), segundo o modelo de Slack (1994). Os funcionários do setor também avaliaram a importância e a satisfação com as atividades executadas pela área de P&D, não existindo diferença significativa com as avaliações dos clientes internos. As três atividades executadas pelo setor de P&D localizadas na zona “ação urgente” na matriz de IPA, segundo os clientes internos, são a análise dos dados e elaboração de relatórios de testes da área de proteínas isoladas de soja; a discussão, determinação e redirecionamento de prioridades; e a disponibilização das informações e relatórios de P&D de produtos e processos. Elaborou-se um plano de ação para melhoria destas atividades, onde as principais medidas são a informatização das trocas de dados entre o setor de P&D e setores clientes internos, o treinamento dos funcionários do setor de P&D em técnicas de projetos e a implantação do sistema para indexação das informações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata do desenvolvimento e experimentação prática de um aplicativo para jogo de empresas, baseado no acoplamento de um modelo empresarial genérico, construído dentro do paradigma de dinâmica de sistemas, com um modelo em aplicativo de planilhas, operando como um gerador randômico de cenários. Este aplicativo pode ser usado tanto na forma individual, como com vários participantes, de maneira individual ou em grupos, com a participação de um administrador. A geração automática e randômica de cenários num jogo de empresas, propicia um ambiente diferenciado às metas de aprendizado e treinamento dos participantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com vários propósitos, inclusive o de redução de custos e o de facilitar a obtenção das informações desejadas pelo usuário, muitas empresas prestadoras de serviços ao consumidor adotam em suas CATs (Centrais de Atendimento Telefônico) recursos tecnológicos de automação da interação. Examinando-se sob a ótica dos usuários das CATs, estes poderão ter expectativas sobre o serviço que encontrarão e manifestar preferências com relação aos recursos de interação automática. As CATs, ao utilizarem tecnologias de automação da interação, podem estar ou não satisfazendo as expectativas e as preferências dos usuários. Para a determinação de argumentos que suportem as proposições levantadas durante a revisão bibliográfica sobre o tema, realizou-se uma pesquisa dividida em três partes: a) um focus group com alguns usuários de CATs; b) um estudo de campo com usuários de CATs; c) entrevistas com especialistas (levantamento de experiência). Com a técnica Análise de Preferência, propõe-se um modelo das preferências dos usuários em relação ao atendimento automático em CATs. Esse modelo, em princípio, não é generalizável devido às características do processo de amostragem utilizado nesse estudo exploratório. Determinaram-se três grupos distintos de usuários, de acordo com a similaridade entre suas preferências. Determinaram-se usos da tecnologia de atendimento automático que estão em sintonia com as preferências dos usuários. Finalmente, usando os conceitos do Balanced Scorecard, propõe-se um modelo de avaliação gerencial para o uso da tecnologia de atendimento automatizado nas Centrais de Atendimento Telefônico das empresas prestadoras de serviços ao consumidor.