220 resultados para indexação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Regime de Meta de Inflação se Tornou Dominante na Formulação de Políticas dos Bancos Centrais nos Últimos 15 Anos. a Teoria Subjacente, Particularmente a Regra de Taylor, Pode ser Vista como uma Competente Generalização Desse Comportamento. de um Ponto de Vista Keynesiano, Ele Será Aceitável se Encararmos a Taxa de Juros de Equilíbrio como Apenas uma Convenção Variável e se a Combinarmos ou com uma Taxa de Câmbio ou com uma Meta de Emprego. no Caso do Brasil, Porém, Além Dessa Ressalva Teórica e da Condição do Duplo Mandato, o Regime de Metas de Inflação Enfrenta um Problema de Incoerência. esta é uma Política que se Destinava a ser Utilizada na Administração da Política Monetária, não na Mudança do Regime de Política Monetária . a Política de Metas de Inflação foi Introduzida no Brasil em 1999 como um Substituto para a Âncora Cambial, que Havia Sido Usada Desastrosamente entre 1995 e 1998. Durante Muitos Anos, o País Havia Enfrentado uma Armadilha de Alta Taxa de Juros / Taxa de Câmbio Valorizada E, Portanto, Precisava Mudar seu Regime de Política Monetária Antes de Eventualmente Adotar o Regime de Meta de Inflação. Essa Mudança, que Começou com a Flutuação de Janeiro de 1999, Deveria ter Sido Completada com Reformas Específicas (Fim da Indexação dos Serviços Públicos e dos Próprios Juros Básicos). no Entanto, em Lugar de Desenvolver uma Estratégia para Reduzir a Taxa de Juros, o Governo Continuou a Definir a Inflação como o Principal Problema a ser Enfrentado e Adotou uma Política Formal de Metas de Inflação. a Conseqüência é que Desde 1999 Essa Política se Tornou o Obstáculo que a Economia Brasileira Enfrenta para Escapar da Armadilha da Taxa de Juros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta a minha versão da história da inflação inercial. A primeira formulação completa dessa teoria está num artigo meu e de Nakano, de 1983; e o primeiro artigo que propôs um choque de preços combinado com uma tabela de conversão é de 1984, também dos mesmos autores. Resende e Arida escreveram em 1984 o primeiro trabalho propondo uma moeda indexada para neutralizar a inércia; Francisco Lopes, também em 1984, relacionou a inflação inercial com hiperinflação. As principais referências estão aqui claramente apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examina, mediante a realização de estudo empírico no âmbito do mercado de capitais, se a decisão de tornar obrigatória a divulgação de dados contábeis calculados consoante a sistemática de correção monetária integral veio a contribuir para o aprimoramento da publicação de resultados, na sua função basilar de propiciar informação de utilidade para os usuários

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A situação de alta inflação vigente na economia brasileira desde meados da década de oitenta, força as organizações empresariais a encontrar mecanismos que alimentem seu sistema de informaç5es e possibilitem o cumprimento de contratos e o processo de tomada de decisões. Utilizando a técnica do estudo de caso, este trabalho acompanha a experiência de uma organização empresarial em seu processo de adaptação à realidade econômica, após diagnosticar que o seu sistema de informações apresentava um nível muito reduzido de eficácia, ao não incorporar dados sobre as variações de preços na economia. O uso da indexação de valores monetários acompanhado de medidas de reorganização administrativa, da incorporação de novos controles econômicos e financeiros e da expansão da automatização levaram a empresa a um novo estágio de gestão

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho estuda a influência da inflação sobre o nível do salário real, e o comportamento deste último frente a um processo de aceleração dos preços. Inicialmente é desenvolvida uma discussão teórica sobre a relação entre estas variáveis, inclusive sob regimes de indexação alternativos. Em seguida, são realizados levantamentos de dados da economia brasileira e testes econométricos visando a observação empírica do objeto de estudo descrito acima

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a avaliação da importância e da satisfação dos clientes internos com cada uma das atividades executadas pelo setor de Pesquisa e Desenvolvimento (P&D) de uma indústria de alimentos, subsidiando melhorias na sua prestação de serviços. A base deste estudo é a determinação das atividades executadas pelo setor de P&D que apresentam uma diferença significativa entre a importância e a satisfação segundo os clientes internos. A priorização das atividades que necessitam de ação urgente foi obtida através da análise de importância-desempenho (IPA), segundo o modelo de Slack (1994). Os funcionários do setor também avaliaram a importância e a satisfação com as atividades executadas pela área de P&D, não existindo diferença significativa com as avaliações dos clientes internos. As três atividades executadas pelo setor de P&D localizadas na zona “ação urgente” na matriz de IPA, segundo os clientes internos, são a análise dos dados e elaboração de relatórios de testes da área de proteínas isoladas de soja; a discussão, determinação e redirecionamento de prioridades; e a disponibilização das informações e relatórios de P&D de produtos e processos. Elaborou-se um plano de ação para melhoria destas atividades, onde as principais medidas são a informatização das trocas de dados entre o setor de P&D e setores clientes internos, o treinamento dos funcionários do setor de P&D em técnicas de projetos e a implantação do sistema para indexação das informações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comunicação é essencial para a vida em grupo, e se dá através da linguagem. Existem diversas formas de linguagem, porém a linguagem matemática vai além das demais, pois é universal. O advento dos aparelhos eletrônicos e, em especial, do computador, tornou possível o desenvolvimento de padrões e aplicativos que pudessem manipular símbolos matemáticos eletronicamente. A Web trouxe consigo a linguagem HTML para visualização de textos e, mais atualmente, o padrão de linguagem de marcação XML e seus aplicativos, que têm características melhores que o HTML quanto à estruturação, armazenamento e indexação de dados. Uma das aplicações advindas do XML foi a linguagem de marcação matemática MathML, que contribui para a manipulação e visualização de formalismos matemáticos na Web, e vem se tornando um padrão no meio acadêmico, educacional e comercial. As diversas aplicações matemáticas (editores, ambientes matemáticos) desenvolvidas para o computador geralmente não permitem a discussão em linguagem matemática de forma síncrona pela rede de computadores. Sabe-se que na Internet a conexão de pessoas num mesmo momento através de ferramentas síncronas é muito difundida, como é o caso de aplicativos do tipo bate-papo; no entanto, esses aplicativos não possuem funcionalidades que permitam a troca de textos matemáticos. Há, portanto, uma limitação em relação a ferramentas de comunicação síncrona para matemática na Web. Este trabalho quer oferecer uma alternativa ao público que deseje trocar formalismos matemáticos de forma síncrona pela Web, a fim de verificar se esse tipo de ferramenta é efetivamente usável para discussões matemáticas. Para isso, foi desenvolvido um protótipo que reúne as características de uma ferramenta típica de bate-papo com as vantagens advindas das linguagens de marcação: o ChatMath. O trabalho também aponta características de aplicativos matemáticos e de ferramentas síncronas textuais e descreve as linguagens de marcação matemática. Para fins de avaliação do protótipo desenvolvido, fez-se uma pesquisa a fim de verificar sua efetiva utilidade para troca de formalismos matemáticos, dentro do contexto educacional. Os resultados dessa pesquisa confirmam a hipótese levantada, embora identifiquem modificações funcionais e de uso da ferramenta, havendo necessidade de reaplicação da avaliação, para se obter resultados mais detalhados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese discute a dívida cambial doméstica do setor público brasileiro entre 1995 e 2004. Argumenta-se que a origem dessa dívida não está relacionada à busca de uma composição ótima da dívida pública, mas sim a objetivos de política cambial. O caso dos tesobonos mexicanos é analisado como precedente para o caso brasileiro, ressaltando-se três peculiaridades: o prazo médio dos títulos cambiais; a concentração da dívida pública mexicana no mercado internacional; e a importância dos não-residentes entre os detentores. O caso brasileiro foi apresentado a partir de uma perspectiva histórica, desde a introdução das ORTN com cláusula de correção cambial, no fim dos anos sessenta. Foi realizada uma tentativa de reconstrução da trajetória da dívida mobiliária cambial até o período recente. Levando-se em consideração que os objetivos desse instrumento estão concentrados na política cambial, foi feita uma breve resenha da literatura sobre os determinantes da taxa de câmbio, começando por Meese e Rogoff (1983), que introduziram a idéia de que um passeio aleatório é melhor previsor do câmbio que os modelos baseados em fundamentos macroeconômicos. É feita também uma breve revisão da literatura sobre intervenção no câmbio, que é farta em trabalhos para países desenvolvidos e escassa no que se refere aos países emergentes. A colocação de títulos indexados ao câmbio é tratada como intervenção, avaliando-se seus efeitos sobre a taxa de câmbio e sua volatilidade. No exercício econométrico, foi construída uma base de dados diários de endividamento cambial doméstico, através da agregação dos leilões primários de títulos e de swaps emitidos entre 1991 e 2004. O impacto da dívida cambial sobre o câmbio foi estimado, para os períodos de câmbio administrado (1995-1999) e de câmbio flutuante (1999-2004), através de um Modelo Vetorial de Correção de Erro (VECM). As elasticidades estimadas apresentaram uma possível ocorrência de simultaneidade, que foi detectada através de um teste de causalidade de Granger. Esse teste revelou uma causação bi-direcional de tipo feedback. As estimações estão sujeitas a heterocedasticidade, que foi corrigida através da estimação de um GARCH. Este revelou que a elasticidade do câmbio em relação à intervenção com dívida cambial é de -0,17 no câmbio administrado e de -2,15 no câmbio flutuante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A monografia tem como objetivo analisar e tentar mensurar a Credibilidade do Banco Central do Brasil através da formação das expectativas inflacionárias dos agentes no regime monetário de metas de inflação. A credibilidade da autoridade monetária é um dos pilares do atual regime, diminuindo o custo de desinflação e ajudando a conter a inflação em patamares baixos. A credibilidade só pode ser adquirida gradativamente com um histórico de comprometimento de combate à inflação e autonomia na condução da política monetária. Um dos grandes problemas práticos encontrados atualmente é a mensuração quantitativa da credibilidade da autoridade monetária. O estudo tanta mensurar a credibilidade através do peso da meta central da inflação na formação da expectativa inflacionária, ou seja, quanto mais crível for o Banco Central, maior o peso da meta. O estudo se baseia na hipótese central de que as expectativas da meta de inflação no Brasil ainda apresentam um efeito da indexação da inflação passada que vem diminuindo com o ganho de credibilidade do Banco Central, ao mesmo tempo em que a meta vem ganhando significância. Testes econométricos foram realizados de forma a empiricamente modelar a formação das expectativas 12 meses à frente no regime de metas de inflação contemplando os efeitos históricos, dados de mercado, desvalorização cambial e a meta central do regime. Os resultados empíricos mostram que os fatores presentes na previsão da inflação vêm mudando ao longo do regime, mas os participantes de mercado levam em consideração o IPCA acumulado nos últimos três meses, a desvalorização cambial e a meta de inflação. O estudo mostra que mesmo com as diversas crises sofridas ao longo do regime, a significância da meta vem aumentando e o peso da inércia vem diminuindo ao longo ao tempo, representando um ganho de credibilidade do Banco Central brasileiro no regime de metas de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento do Plano Real, que procedeu à estabilização da moeda em meados da década de noventa, ficou patente a gravidade da situação fiscal das unidades subnacionais. De um lado figuravam as dificuldades na condução da gestão financeira por meio da ausência do processo inflacionário que anteriormente possibilitava a indexação das receitas tributárias enquanto as despesas correntes tinham a sua liquidação e pagamento postergados. Por outro lado, a dívida consolidada, majoritariamente mobiliária, disparava em função da política monetária restritiva. Esta situação financeira precária tornou urgente a realização do ajuste fiscal dos estados que teve como condutor a União que instituiu medidas primordiais para atingir este fim, destacando-se três leis federais: a Lei de Renegociação das Dívidas Estaduais, a Lei de Responsabilidade Previdenciária e a Lei de Responsabilidade Fiscal. O trabalho em tela estuda a condução das contas públicas do Estado do Rio de Janeiro no período de 2000 a 2007, objetivando verificar a existência de esforços de ajuste fiscal e em que medida estes esforços trouxeram resultados satisfatórios, demonstrando a eficácia do arcabouço legal instituído pela União. Conclui-se neste trabalho que, no período de 2000 a 2006, não ocorreu avanço significativo em direção da melhoria das contas públicas estaduais e que os superávits primários alcançados no período foram impulsionados pelo aumento de receitas de caráter instável, extraordinário e finito. Destacou-se quanto aos riscos inerentes à excessiva e crescente dependência que as finanças estaduais apresentam, relativamente às receitas supracitadas, tendo em vista que estas têm sido utilizadas para pagamento de despesas públicas correntes de caráter continuado. O presente trabalho conclui também que, a partir do ano de 2007, foi dado o pontapé inicial para o alcance do ajuste fiscal, tendo em vista a mudança de patamar do superávit primário, com ênfase na redução das despesas primárias e não no aumento das receitas extraordinárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.