996 resultados para Compressão de dados (Computação)
Resumo:
Crescimento espacial tem sido um dos importantes fenômenos observados nas cidades contemporâneas, sendo a identificação de processos e padrões, de suas causas e conseqüências, um desafio para a ciência. Nesse caminho, esta pesquisa propõe um modelo de simulação de crescimento urbano dedicado a realizar simulações, incluindo de modo integrado fatores urbanos, naturais e institucionais, promovendo simultaneidade entre crescimento externo e interno a um espaço urbano preexistente, representados e modelados utilizando integradamente grafos, autômato celular e geotecnologias. Experimentos com modos de crescimento (axial, polar e difuso) e com cenários alternativos estão implementados, bem como são investigadas questões urbanas de conversão de território, de distribuição dos estoques construídos, de formação de periferias e vazios, de obsolescência e revitalização, de mono e policentralidade, de abrangência de funções urbanas e de influência da distância, de renaturalização e preservação ambiental, de limites de crescimento e problemas ambientais intra-urbanos, de ponderação de atributos, de crescimento difuso, fragmentação e compacidade. Estão também incluídas possibilidades de compressão de dados e alternativas de visualização de resultados, alcançando estudos exploratórios sobre forma urbana e sustentabilidade. O trabalho está dedicado inicialmente a fundamentar, construir e apresentar o modelo de simulação de crescimento denominado SACI – Simulador do Ambiente da Cidade®, depois a realizar simulações num caso real, em Pelotas, RS, quando são demonstrados os procedimentos de calibração, terminando com experimentos escolhidos para avançar na discussão do fenômeno do crescimento urbano. Esforços estão realizados para oferecer um instrumento de simulação com possibilidade de uso para além dos interesses exclusivos desta investigação, particularmente no campo do ensino e da prática do planejamento urbano municipal. Sendo assim, este argumento se dedica simultaneamente a documentar a trajetória de construção de um modelo de simulação de crescimento urbano, a explicitar sua aplicabilidade em casos de cidades reais e a contribuir para a compreensão teórica da dinâmica urbana e ambiental na cidade.
Resumo:
O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.
Resumo:
No jornalismo, são chamadas suítes as matérias que trazem a sequência de um fato já noticiado. Conforme a imprensa cresce na Internet, podemos ver frequentemente um mesmo fato sendo repetido em portais de notícias dia após dia. Este trabalho visa medir as quantidades de artigos a respeito de um mesmo assunto que tenha iniciado uma suíte, com esta medição acontecendo ao longo dos dias em que ele foi explorado. Os resultados permitiram que fossem encontrados padrões que identifiquem os dias em que os fatos mais relevantes foram noticiados, bem como o tempo em que o assunto foi desenvolvido. Para esta análise, foram escolhidos alguns dos mais importantes fatos que viraram suítes no Brasil ao longo dos últimos anos. As quantidades de artigos são provenientes do maior portal de notícias do país, o G1, e da base de dados do Media Cloud Brasil.
Resumo:
A implantação dos sistemas de notas fiscais eletrônicas proporcionou uma grande quantidade de dados para as administrações tributárias. Analisar esses dados e extrair informações importantes é um desafio. Esse trabalho buscou, por meio de técnicas de análise de dados e mineração de textos, identificar, a partir da descrição dos serviços prestados, notas emitidas incorretamente a fim de respaldar um melhor planejamento de fiscalizações.
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Desenvolvimento Humano e Tecnologias - IBRC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
A investigação de métodos, técnicas e ferramentas que possam apoiar os processos decisórios em sistemas elétricos de potência, em seus vários setores, é um tema que tem despertado grande interesse. Esse suporte à decisão pode ser efetivado mediante o emprego de vários tipos de técnicas, com destaque para aquelas baseadas em inteligência computacional, face à grande aderência das mesmas a domínios com incerteza. Nesta tese, são utilizadas as redes Bayesianas para a extração de modelos de conhecimento a partir dos dados oriundos de sistemas elétricos de potência. Além disso, em virtude das demandas destes sistemas e de algumas limitações impostas às inferências em redes bayesianas, é desenvolvido um método original, utilizando algoritmos genéticos, capaz de estender o poder de compreensibilidade dos padrões descobertos por essas redes, por meio de um conjunto de procedimentos de inferência em redes bayesianas para a descoberta de cenários que propiciem a obtenção de um valor meta, considerando a incorporação do conhecimento a priori do especialista, a identificação das variáveis mais influentes para obtenção desses cenários e a busca de cenários ótimos que estabeleçam valores, definidos e ponderados pelo usuário/especialista, para mais de uma variável meta.
Resumo:
Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.
Resumo:
As técnicas utilizadas para avaliação da segurança estática em sistemas elétricos de potência dependem da execução de grande número de casos de fluxo de carga para diversas topologias e condições operacionais do sistema. Em ambientes de operação de tempo real, esta prática é de difícil realização, principalmente em sistemas de grande porte onde a execução de todos os casos de fluxo de carga que são necessários, exige elevado tempo e esforço computacional mesmo para os recursos atuais disponíveis. Técnicas de mineração de dados como árvore de decisão estão sendo utilizadas nos últimos anos e tem alcançado bons resultados nas aplicações de avaliação da segurança estática e dinâmica de sistemas elétricos de potência. Este trabalho apresenta uma metodologia para avaliação da segurança estática em tempo real de sistemas elétricos de potência utilizando árvore de decisão, onde a partir de simulações off-line de fluxo de carga, executadas via software Anarede (CEPEL), foi gerada uma extensa base de dados rotulada relacionada ao estado do sistema, para diversas condições operacionais. Esta base de dados foi utilizada para indução das árvores de decisão, fornecendo um modelo de predição rápida e precisa que classifica o estado do sistema (seguro ou inseguro) para aplicação em tempo real. Esta metodologia reduz o uso de computadores no ambiente on-line, uma vez que o processamento das árvores de decisão exigem apenas a verificação de algumas instruções lógicas do tipo if-then, de um número reduzido de testes numéricos nos nós binários para definição do valor do atributo que satisfaz as regras, pois estes testes são realizados em quantidade igual ao número de níveis hierárquicos da árvore de decisão, o que normalmente é reduzido. Com este processamento computacional simples, a tarefa de avaliação da segurança estática poderá ser executada em uma fração do tempo necessário para a realização pelos métodos tradicionais mais rápidos. Para validação da metodologia, foi realizado um estudo de caso baseado em um sistema elétrico real, onde para cada contingência classificada como inseguro, uma ação de controle corretivo é executada, a partir da informação da árvore de decisão sobre o atributo crítico que mais afeta a segurança. Os resultados mostraram ser a metodologia uma importante ferramenta para avaliação da segurança estática em tempo real para uso em um centro de operação do sistema.
Resumo:
Pós-graduação em Matemática Universitária - IGCE