902 resultados para COMPUTAÇÃO GRÁFICA
Resumo:
Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.
Resumo:
Este trabalho objetiva a construção de estruturas robustas e computacionalmente eficientes para a solução do problema de deposição de parafinas do ponto de vista do equilíbrio sólido-líquido. São avaliados diversos modelos termodinâmicos para a fase líquida: equação de estado de Peng-Robinson e os modelos de coeficiente de atividade de Solução Ideal, Wilson, UNIQUAC e UNIFAC. A fase sólida é caracterizada pelo modelo Multisólido. A previsão de formação de fase sólida é inicialmente prevista por um teste de estabilidade termodinâmica. Posteriormente, o sistema de equações não lineares que caracteriza o equilíbrio termodinâmico e as equações de balanço material é resolvido por três abordagens numéricas: método de Newton multivariável, método de Broyden e método Newton-Armijo. Diversos experimentos numéricos foram conduzidos de modo a avaliar os tempos de computação e a robustez frente a diversos cenários de estimativas iniciais dos métodos numéricos para os diferentes modelos e diferentes misturas. Os resultados indicam para a possibilidade de construção de arcabouços computacionais eficientes e robustos, que podem ser empregados acoplados a simuladores de escoamento em dutos, por exemplo.
Resumo:
A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Este trabalho busca compreender as atuais configurações dos livros infantojuvenis no mercado editorial, com a entrada na chamada era digital e o aumento crescente na produção de e-books por parte das editoras, ao mesmo tempo em que livros impressos ainda continuam sendo produzidos em larga escala e reinventados constantemente. Partindo do conceito de remediação (BOLTER e GRUSIN, 2000), procura-se descobrir por quais mudanças os livros impressos passaram ao longo dos anos, quais são suas novas configurações gráficas face à atual realidade digital, e com quais critérios esses livros estão sendo transformados em e-books. Para tal, foi feito um estudo de caso dos livros infantojuvenis de Monteiro Lobato, importante autor para a literatura brasileira, com uma análise comparativa da coleção do Sítio do Picapau Amarelo, em quatro edições (três impressas e uma digital) e três épocas diferentes (anos 1940, 1980 e 2000). Focando na parte gráfica e estética dos livros (que foi a parte que se alterou) e com a observação dos protocolos de leitura (CHARTIER, 2011) presentes nas diferentes edições, procura-se compreender as transformações pelas quais esses livros passaram ao longo dos anos, em decorrência do contexto sociocultural em que foram produzidos, além de suas atuais configurações no contexto da cultura da convergência (JENKINS, 2009). Após a análise realizada pôde-se perceber que talvez o processo de remediação no mercado editorial ainda não esteja tão presente quanto se pensava inicialmente, apesar de estar caminhando lentamente nessa direção.
Resumo:
Especificação de requisitos. Modelagem de classes. Modelo de classes de objetos. Nível geral: diagrama de classes gerais. Modelo dinâmico. modelo funcional. Diagrama de fluxo de dados (DFD). Especificação de processos. Revisão de modelos analisados. Projeto orientado objeto. Organização do sistema. Projeto de objetos. Projeto de algoritmos. Diagrama: entidade-relacionamento. Interface gráfica com o usuário.
Personalização dos softwares HiperEditor e HiperNavegador para uso na Agência de Informação Embrapa.
Resumo:
Este trabalho descreve o desenvolvimento de uma versão personalizada dos softwares HiperEditor e HiperNavegador para uso no Gestor de Conteúdo da Agência de Informação Embrapa, visando atender aos novos requisitos dos usuários nesse sistema. As atualizações foram concebidas por meio do uso dos códigos-fonte dos softwares, da biblioteca JDK, do ambiente de desenvolvimento Eclipse e do sistema operacional Kubuntu. A nova versão do HiperEditor traz uma interface gráfica mais amigável e intuitiva, além de novas funcionalidades: alterar cor do texto ou de preenchimento do nó, ordenação semântica, inserir imagem de ícone ou miniatura ao nó e imprimir estrutura hierárquica. O HiperNavegador personalizado permite que as alterações realizadas em uma determinada estrutura hierárquica por meio do HiperEditor possam ser visualizadas.
Resumo:
A ferramenta TaxTools foi desenvolvida pelo Laboratório de Inteligência Computacional (Labic) do Instituto de Ciência Matemática e de Computação (ICMC) da Universidade de São Paulo (USP), campus de São Carlos, SP, com o objetivo de auxiliar no processo de mineração de textos. Atualmente, ela tem sido mantida e evoluída pelo Laboratório de Inteligência Computacional (LabIC) da Embrapa Informática Agropecuária. Esse tutorial abrange apenas as opções disponíveis na TaxTools, que completam o processo de obtenção de uma taxonomia de tópicos (MOURA et al., 2008); como clusterização, cálculos de medidas intercluster e de joinability, métodos de podas, métodos de visualização de resultados e algumas opções auxiliares.
Resumo:
A formação do banco de imagens. Desenvolvimento de um Sistema Web para disponibilização dos dados. Considerações finais.
Resumo:
Dissertação apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Engenharia Informática, ramo de Computação Móvel
Resumo:
Dissertação apresentada à Universidade Fernando Pessoa como partes dos requisitos para a obtenção do grau de Mestre em Engenharia Informática, ramo de Computação Móvel
Resumo:
Dissertação de Mestrado apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Psicologia, especialização em Psicologia Clínica e da Saúde.
Resumo:
22 hojas : ilustraciones a color.
Resumo:
31 hojas.
Resumo:
112 hojas : ilustraciones, fotografías.