87 resultados para COMPUTAÇÃO GRÁFICA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Instituto Superior Tecnológico do Rio de Janeiro (IST-Rio) serviu de lócus para a concretização deste trabalho, que traz o relato de uma realidade institucional vivenciada por uma comunidade educacional que incorporou em seu projeto pedagógico humanidades dentro da perspectiva de uma formação tecnológica. O trabalho foi realizado utilizando como base a Teoria Crítica, aplicada ao universo da educação pública superior e focada nos jovens de classe popular oriundos da Cidade do Rio de Janeiro. A caminhada, turbulenta e ao mesmo tempo repleta de desafios, culminou em conquistas importantes, resultantes do esforço de uma equipe que acreditava nas múltiplas possibilidades de concretização de um projeto comprometido com a formação tecnológica na área de ciência da computação a partir da construção de um currículo integrado que contemplasse as disciplinas da área técnica e não deixasse de privilegiar a formação humanística, tão importante para a vida cidadã. Um projeto que ao mesmo tempo tivesse o olhar pedagógico para a construção de suas práticas e a gerência democrática significativa para a necessária consolidação de um novo estilo de convivência. Os resultados foram significativos e representaram avanços para as vidas dos docentes e discentes, além de profundas mudanças na maneira de consolidar o conhecimento, o que alavancou o desenvolvimento de um sentimento institucional capaz de proporcionar a construção de uma proposta de política pública para a ampliação da formação tecnológica em todo o Estado do Rio de Janeiro, apropriando um projeto inovador, criativo e humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os painéis de gráficos estatísticos conhecidos como dashboards são utilizados comumente naárea de Business Intelligence (BI) para a visualização de grandes sistemas organizados de dados. A presente dissertação propõe embasar o projeto de dashboards pelas teorias de Jacques Bertin, formuladas nas obras Sémiologie Graphique e La Graphique et le Traitement Graphique de linformation. Considerando este referencial, e ainda parâmetros do design de informação e da visualização de dados, foram desenvolvidos dashboards que apresentam dados sobre a política de reserva de vagas da Universidade do Estado do Rio de Janeiro, sistematizados pelo projeto de BI dessa instituição. O objetivo foi não apenas o de atender aos requisitos convencionais de um dashboard, mas sobretudo o de apresentar outras perspectivas informativas. Nesse sentido, investigam-se as especificidades dos métodos de Bertin e sua expansão para o domínio dos sistemas interativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Victor Burton é um designer que dedicou a maior parte do seu trabalho ao livro. A fascinação por este objeto começou ainda na infância devido ao contato com as obras raras da biblioteca da família, o que aguçou o desejo de se tornar designer exclusivamente para projetar livros. Sua atuação no mercado editorial brasileiro começou no final dos anos 1970, na editora Confraria dos Amigos do Livro. Como o maior interesse de Victor no livro é a relação entre texto e imagem, os livros iconográficos se tornaram seu principal objetivo e são nos livros desta natureza onde melhor conseguimos visualizar seu estilo. Victor desenvolveu uma linguagem gráfica própria que redefiniu o padrão do mercado editorial brasileiro. Numa época em que o projeto gráfico, principalmente a capa do livro, entre tantas cores e atrativos disputam a atenção do consumidor nas prateleiras das livrarias, já não é tão fácil identificar nem a editora nem a autoria do projeto gráfico e da capa. Entretanto, os livros de Victor Burton possuem um estilo que nos permite reconhecer sua assinatura. Desta forma, a questão que norteou este trabalho foi por que conseguimos identificar os livros do designer Victor Burton? Sendo assim, o objetivo deste trabalho foi enumerar e identificar os aspectos gráficos que caracterizam o estilo deste designer nos livros iconográficos. Para isso, nos baseamos no método descritivo desenvolvido por Guilherme Cunha Lima, em O Gráfico Amador. A partir das características levantadas, pudemos identificar os principais elementos que nos permite reconhecer a autoria dos trabalhos desenvolvidos por Victor Burton. O uso desses aspectos gráficos reflete o trabalho meticuloso do designer Victor Burton que consegue criar uma narrativa visual auxiliando a leitura do texto através de uma nova leitura gráfica, sobretudo nos livros iconográficos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No período entre 1954 e 1964, Willys de Castro dedicou-se, entre outras tarefas, ao Estúdio de Projetos Gráficos. A presente dissertação analisa quatro marcas desenvolvidas nessa época, e realizadas de forma concomitante a produção de suas pinturas, objetos e esculturas. As marcas de Willys, parecem tornar-se uma síntese de seu trabalho, de sua arte como um todo. Para realizar esta analise a dissertação traça sua trajetória no campo do design no Brasil. Devido as pouquíssimas publicações sobre o artista, principalmente com relação a sua produção gráfica, este trabalho tenta ser o mais completo possível para o estudo da arte e do design no Brasil até o momento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo examina o momento fundador da imprensa no Brasil em 1808 e a rotina de funcionamento da Impressão Régia, no Rio de Janeiro, entre 1808 e 1821. Qual era sua estrutura administrativa, sua ordem de despesas, a natureza das ocupações funcionais, enfim, qual era a lógica de funcionamento da casa impressora oficial da Corte no início do Oitocentos? Qual o lugar ocupado pelos impressos naquele contexto?Para melhor compreender a estrutura, a rotina administrativa e de funcionamento da Impressão Régia no Rio de Janeiro, mas, principalmente, os usos e funções da régia tipografia no momento de seu estabelecimento por iniciativa do príncipe regente d. João, foi analisada também parte de sua produção, qual seja, os títulos dedicados às Ciências e às Artes. A partir desses livros, localizados no acervo da Biblioteca Nacional do Rio de Janeiro e na Biblioteca Guita e José Mindlin, em São Paulo, foram estudadas as características biobibliográficas de seus autores e a relação dos mesmos com o poder oficial.Foi possível identificar que os autores dos títulos examinados eram herdeiros da tradição ilustrada portuguesa. Partilhando de uma mesma cultura política, possuíam laços estreitos com membros da Corte, prestando obediência ao príncipe, sendo alguns autores, inclusive, integrantes da junta diretora da Impressão Régia.Assim, além da rotina e funcionamento da casa impressora da Corte, no Rio de Janeiro de d. João, o presente trabalho examina tomando como fonte de análise sua produção editorial no campo das Ciências e das Artes a formação da cultura científica do período Joanino e a rede de sociabilidades existente no Rio de Janeiro, entre 1808 e 1821.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma nova métrica denominada AP (Alternative Path), a ser utilizada para o cálculo de rotas em protocolos de roteamento em redes em malha sem fio. Esta métrica leva em consideração a interferência causada por nós vizinhos na escolha de uma rota para um destino. O desempenho da métrica AP é avaliado e comparado com o da métrica ETX (Expected Transmission Count) e com o da métrica número de saltos (Hop Count). As simulações realizadas mostram que a métrica AP pode propiciar desempenho superior à rede quando comparada com as outras duas métricas. A métrica AP apresenta melhor desempenho em cenários com maior diversidade de caminhos alternativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, plasmado em metodologia jurídica, reflete criticamente sobre o problema da motivação da sentença civil como elemento de organização e de funcionamento do Estado Constitucional Democrático de Direito. A motivação é condição essencial de jurisdicionalidade, no sentido de que sem motivação não há exercício legítimo da função jurisdicional. O trabalho faz uma abordagem da natureza da motivação como discurso justificativo, jurídico e racional, da validade dos critérios de escolha ou de valoração empregados pelo juiz em sua decisão. O raciocínio do juiz é apresentado sob dupla feição: raciocínio decisório interno (contexto de descoberta ou deliberação) e raciocínio justificativo externo (contexto de justificação ou de validação). O conjunto das funções técnico-instrumental (endoprocessual) e político-garantística (extraprocessual) é objeto de investigação. A motivação, nos planos teórico e prático, exerce também a função de garantia do garantismo processual. A tese da inexistência jurídica da sentença tem três eixos teóricos: omissão total da motivação gráfica; falta de motivação ideológica, equiparada à hipótese de ausência de motivação gráfica; incompatibilidade lógica radical entre as premissas ou entre as premissas e a conclusão final, que também equivale à ausência total de motivação. O trabalho retrata um modelo de injustiça atemporal vivificado pelo juiz Crono, oposto à motivação como inestimável fator de legitimação argumentativa da jurisdição. A obrigatoriedade de motivação pública é o traço característico da jurisdição de nossa contemporaneidade e representa a maior conquista civilizatória do processo équo e justo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.