996 resultados para Compressão de dados (Computação)
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
Neste artigo é desenvolvido um modelo de equilíbrio das firmas a dois setores, mineral e não mineral, que possibilita a construção da trajetória da produtividade total dos fatores setorial. A partir dessa modelagem, o estudo tem dois objetivos: Primeiro, testar a influência da dotação de recursos minerais no desempenho macroeconômico dos países, via PTF. Segundo, testar a dinâmica macroeconômica, PTF, PIB e inflação, gerada por um choque no preço das commodities minerais. Os resultados sugerem a presença da doença holandesa, países com grande dotação de recurso mineral têm um pior desempenho econômico, e que um choque no preço das commodities minerais leva a um aumento da taxa de crescimento do PIB, no curto prazo, e a elevação da inflação mais adiante, em países ricos nesse recurso.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
Nos últimos anos, o volume de dados gerados pelas organizações produtivas brasileiras tem crescido vertiginosamente. Com isso, a Gestão de Dados tem se mostrado uma das práticas mais importantes na administração da atualidade. Assim, essa pesquisa procurou mostrar, através de pesquisas bibliográfica e documental, quais são as práticas mais atuais na Gestão de Dados. Descobrindo, em linhas gerais, que as empresas hoje se encontram inseridas definitivamente em um contexto 'virtual', e que as ferramentas de Gestão de Dados 'infiltraram-se' nos mais diversos processos empresariais, e a Internet se tornou o mais indispensável 'ambiente' da atualidade. Além disso, ainda há muito a ser discutido sobre os impactos causados pelas ferramentas de Gestão de Dados junto às Organizações, principalmente no que diz respeito ao bem-estar dos indivíduos que as compõe.
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.
Resumo:
The new economy stimulated by the bigger Internet participation as an interaction mean between people and business has been changing the companies¿ management routine. Nowadays, Internet access goes through telephones, in the houses and offices, or through nets of the Intranet kind, with the users in their working settings. The Internet personal access added, with mobility, surely will bring changes to our contacting form to the outside world as well as it will create a possibility of giving the customers a bigger variety of products and services. The present study aims are: (i) to verify the customers behaviours related to this new media, presented in the mobiles digital screens; (ii) to explore some of their main features, and (iii) to compare them with the other media features, as the radio and the TV ones. The applied research methodology was the data collecting through phone interviews. To obtain a Confidence Interval of 95%, 470 WAP, Internet, radio and TV current users¿ answers were gotten. To compare the media, the Fishbein multi-attributes model was used what possibilities to form comparative scores of the attributes built for the research. To mark the discussion concerning the public behaviour related to the differentiated use of the mentioned media out, the study produced uses the McLuhan theoretical reference (1969), specially concerning to his theoretical building, denominated hot and cold means. But this referential theoretic mark could not be supported by the accomplished quantitative study result. The comparison of built attribute scores averages has differentiated the hot media WAP, like radio, as well as the cold media one, like TV. This way, showing that the access new technology appearance, WAP, not only enlarges the Internet use, but also appoints to a new theoretic classification possibility to this new media. The accomplished quantitative research revealed that, through the user point of view, the ¿Contents¿ category is considered as one of the most important WAP aspects. The TV and the radio received significantly lower grades in this subject. The public considers that is important that the WAP information is ¿trustworthy¿, ¿easy¿ to find, ¿available¿, ¿sufficient¿ and that attends the ¿urgency¿ expected by the user. It was observed that the WAP score ¿emotion¿ is inferior to the radio and TV and superior to the Internet ones. But, the differences found are not significant. Considering the low score of importance given to the attributes group ¿emotion¿, is not recommended the WAP use as media when the emotional users aspects are wanted to be reached.
Resumo:
This work has as main objective the development of a key factors¿ model for the quality of Home Broker systems. An explanatory research was performed, based on a quantitative approach. To achieve this goal, some theoretical models of technology acceptance (TAM, TRA, TPB and IDT), reliability and quality of service were reviewed. It was proposed an extended key factors¿ model and developed a questionnaire, which was the research instrument used in this study. The questionnaire was applied over the Internet, from which was obtained a participation of 113 valid respondents, all of them users of Home Broker system. Once performed the data collection, statistical tests were used for the Factorial Analysis in order to achieve a definitive model. The key factors found were Perceived Usefulness, Perceived Ease of Use, Subjective Norms, Compatibility, Reliability and Relative Advantage. Some hypotheses from the model were also tested to investigate the relationship between the importance given to the factors and the resulting degree of satisfaction about quality of service. As a result of the study, a key factors¿ model for the quality of Home Broker systems was established, and identified that the factor Compatibility" has more explanatory power than the others."
Resumo:
O relatório social, instrumento importante para gestão social, prestação de contas dessa gestão, análise e estudos sobre a RSE, é publicado cada vez com mais freqüência[ABF1] na Internet, levando as questões sociais da empresa para o espaço público, potencializando, com isso, sua divulgação e seu uso. No entanto, a tecnologia da informação oferece recursos para que essas ações possam ir além da divulgação. Diante desta premissa, o estudo se propõe[ABF2] a analisar o aproveitamento desses recursos pela área de responsabilidade social da empresa. A partir de um levantamento realizado nos sites de 139 empresas, são observadas aquelas[ABF3] que divulgaram o relatório social e quais os seus interesses, projetos e ações sócio-ambientais, assim como os recursos tecnológicos que viabilizam a interação e a comunicação com stakeholders. Num segundo momento, busca-se a interação com as empresas via e-mail e realizam-se pesquisas de campo para examinar o uso da tecnologia pela área de responsabilidade social de duas empresas participantes do levantamento. Por um lado, há o desejo de diálogo e de maior proximidade com o público, sobretudo quando estão em pauta temas relacionados com o meio ambiente, a cidadania e ações comunitárias. Por outro, porém, alguns passos -ainda que curtos -são dados em direção à divulgação de informações relevantes para a sociedade (atingindo universos mais remotos).A comunicação, a interação e as práticas que permitem maior participação e integração com stakeholders carecem de maior empenho e aproveitamento dos recursos tecnológicos voltados para esses fins.
Resumo:
O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.
Resumo:
O trabalho contempla a interpretação e quantificação das relações entre a alocação da demanda e da oferta de equipamentos de ensino em um sistema local, instrumentado a partir de modelo de oportunidade espacial. Avalia o desempenho de equipamentos escolares baseado na descrição detalhada da configuração espacial e abordagem probabilística para a escolha do usuário em potencial. Constitui objetivo principal medir o desempenho de equipamentos escolares, considerando a configuração espacial urbana, a demanda qualificada representada pelos diversos usuários em potencial e a distribuição dos equipamentos na cidade, verificando a possibilidade teórica de avaliar a qualidade do serviço em função de sua localização, utilizando como variáveis a acessibilidade, a eficiência e equidade espacial. Neste sentido, o método adotado compreende a introdução de variáveis físicas, sociais e econômicas associadas a modelos configuracionais para análise entre as diferentes medidas, adaptado a partir do conceito de oportunidade espacial. Utiliza a medida de Convergência Espacial, definida como uma particularidade do conceito de Centralidade Espacial Os resultados esperados, tendo em vista os propósitos da pesquisa, deverão conduzir a verificação das seguintes hipóteses: a) Do ponto de vista do sistema educacional e habitacional existente, a avaliação do desempenho do sistema escolar pode ser obtida considerando uma combinação de variáveis locais (tipo de demanda e tipo/tamanho de oferta de escolas) e variáveis globais (posição relativa no espaço); b) Do ponto de vista das políticas públicas, a avaliação de impactos de novos equipamentos/serviços de educação pode ser simulada através da medida de Convergência Urbana, desta vez considerando localizações prováveis; A utilização dos modelos propostos neste estudo resultaria da manipulação de variáveis de oferta de serviços de ensino através da computação e associação de dados para cada caso em particular obter-se-ia atributo ao qual estariam relacionadas a eficiência do equipamento, além dos fatores de tamanho, tipo e localização e de variáveis de demanda. Apresentado como instrumento de suporte à decisão a convergência espacial dá avaliação sistemática de situações urbanas, bem como uma performance esperada de situações virtuais do ponto de vista da distribuição de facilidades urbanas em relação a áreas residenciais.