69 resultados para Computação evolucionária


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De um território livre, construído em torno dos princípios da liberdade e da colaboração um ambiente onde pode ser exercida a liberdade de ser (ou parecer), de dizer (ou escrever) e de ouvir (ou ler), para o bem ou para o mal, a massificação do uso da Internet tem constituído um espaço social (virtual) contraditório e diversificado, onde forças cuja vocação parece ser homogeneizar (e possivelmente pasteurizar) esse território livre da diferença têm sido postas em cena. Dentre essas forças, lugar especial é ocupado pelo que se convencionou chamar portais de interesse geral. Tais sites, ao procurar responder a diferentes interesses, de modo a assegurar que o máximo possível de anseios de seus usuários seja satisfeito sem a necessidade de navegarem para fora dos seus domínios, são construídos como empreendimentos cujo sucesso requer o controle do comportamento de navegação dos usuários o que, neste caso, não pode ser feito senão através do discurso (persuasivo). A hipótese que salta aos olhos é evidente: e se este não for apenas um controle pelo discurso, mas um controle do discurso? A premissa é, evidentemente, que tais sites constituem uma categoria especial de artefatos de linguagem produzidos no interior de eventos comunicativos bem determinados, isto é, um gênero emergente do discurso. Assim, o objetivo primário da presente pesquisa consistiu em determinar como o modo de funcionamento discursivo do portal contribui para afetar os hábitos de navegação dos seus usuários, curvando e distorcendo o ciberespaço nas suas vizinhanças. Para isso procuramos abordar o que chamamos atratores retóricos, isto é, aquelas estratégias (discursivas) destinadas a seduzir, convencer ou mesmo fraudar os usuários de modo a assegurar sua permanência na órbita dos portais, fazendo desses websites vetores da ordem do discurso, um elemento de controle do caos típico do ciberespaço, um agente de exorcismo da diferença e subjugação do discurso desenfreado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A proposta desse trabalho é mostrar a produção em termos de design das vinhetas para televisão e as técnicas para a produção das mesmas desde o início da televisão no Brasil no ano de 1950, até os primeiros anos da TV Educativa (TVE), período no qual a computação gráfica televisiva dava os primeiros passos no país. Além de fazer um panorama histórico dos elementos gráficos que eram veiculados nesse meio de comunicação e a apresentação de conceitos utilizados na área, o trabalho mostra como funcionava a prática do design gráfico em movimento através dos trabalhos do designer gráfico Rui de Oliveira, que trabalhou na TV Educativa entre os anos de 1977 e 1983.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, existem modelos matemáticos capazes de preverem acuradamente as relações entre propriedades de estado; e esta tarefa é extremamente importante no contexto da Engenharia Química, uma vez que estes modelos podem ser empregados para avaliar a performance de processos químicos. Ademais, eles são de fundamental importância para a simulação de reservatórios de petróleo e processos de separação. Estes modelos são conhecidos como equações de estado, e podem ser usados em problemas de equilíbrios de fases, principalmente em equilíbrios líquido-vapor. Recentemente, um teorema matemático foi formulado (Teorema de Redução), fornecendo as condições para a redução de dimensionalidade de problemas de equilíbrios de fases para misturas multicomponentes descritas por equações de estado cúbicas e regras de mistura e combinação clássicas. Este teorema mostra como para uma classe bem definidade de modelos termodinâmicos (equações de estado cúbicas e regras de mistura clássicas), pode-se reduzir a dimensão de vários problemas de equilíbrios de fases. Este método é muito vantajoso para misturas com muitos componentes, promovendo uma redução significativa no tempo de computação e produzindo resultados acurados. Neste trabalho, apresentamos alguns experimentos numéricos com misturas-testes usando a técnica de redução para obter pressões de ponto de orvalho sob especificação de temperaturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos séculos a Ciência vem produzindo uma série de respostas para problemas que afligem a humanidade. São descobertas que procuraram mudar e continuam mudando a relação do ser humano com a Natureza, a divindade e com ele próprio. Mas é inegável que em momentos passados, a crença excessiva no poder da ciência e da razão conduziu a ideias e argumentos de cientificidade questionável, como o darwinismo social, a sociobiologia, o eugenismo e tantas outras. Outros problemas também podem provir de insinuações de estudiosos proeminentes de que os seres humanos são apenas um monte de neurônios ou apenas veículos para a propagação de genes, ou ainda, que somos somente máquinas. Parece que esse tipo de reducionismo presta um desserviço aos seres humanos, à sociedade e à ciência. Como tentaremos mostrar no decorrer desta tese, a propagação do conhecimento científico para o senso comum, nos parece impregnada desta concepção determinista de se pensar e fazer ciência. Encontramos nos mais diferentes campos de saber científico, da psicologia à sociologia, da economia à engenharia, uma série de argumentos comuns, baseados na Biologia genética e evolucionária e que, nas últimas duas décadas, vêm ganhando um espaço surpreendente de argumentação nos saberes acima. É como se houvesse uma determinação biológica para tudo e para todos. Foi da análise do material informativo e formativo circulante no senso comum, e da posterior constatação desta impregnação, que surgiu a necessidade e a inquietação em produzir um estudo crítico e mais aprofundado sobre estas questões, buscando ouvir alguns dos mais reconhecidos pesquisadores do campo para saber se há algum fundamento no que é noticiado e, muitas vezes, publicado oficialmente sobre o tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Instituto Superior Tecnológico do Rio de Janeiro (IST-Rio) serviu de lócus para a concretização deste trabalho, que traz o relato de uma realidade institucional vivenciada por uma comunidade educacional que incorporou em seu projeto pedagógico humanidades dentro da perspectiva de uma formação tecnológica. O trabalho foi realizado utilizando como base a Teoria Crítica, aplicada ao universo da educação pública superior e focada nos jovens de classe popular oriundos da Cidade do Rio de Janeiro. A caminhada, turbulenta e ao mesmo tempo repleta de desafios, culminou em conquistas importantes, resultantes do esforço de uma equipe que acreditava nas múltiplas possibilidades de concretização de um projeto comprometido com a formação tecnológica na área de ciência da computação a partir da construção de um currículo integrado que contemplasse as disciplinas da área técnica e não deixasse de privilegiar a formação humanística, tão importante para a vida cidadã. Um projeto que ao mesmo tempo tivesse o olhar pedagógico para a construção de suas práticas e a gerência democrática significativa para a necessária consolidação de um novo estilo de convivência. Os resultados foram significativos e representaram avanços para as vidas dos docentes e discentes, além de profundas mudanças na maneira de consolidar o conhecimento, o que alavancou o desenvolvimento de um sentimento institucional capaz de proporcionar a construção de uma proposta de política pública para a ampliação da formação tecnológica em todo o Estado do Rio de Janeiro, apropriando um projeto inovador, criativo e humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma nova métrica denominada AP (Alternative Path), a ser utilizada para o cálculo de rotas em protocolos de roteamento em redes em malha sem fio. Esta métrica leva em consideração a interferência causada por nós vizinhos na escolha de uma rota para um destino. O desempenho da métrica AP é avaliado e comparado com o da métrica ETX (Expected Transmission Count) e com o da métrica número de saltos (Hop Count). As simulações realizadas mostram que a métrica AP pode propiciar desempenho superior à rede quando comparada com as outras duas métricas. A métrica AP apresenta melhor desempenho em cenários com maior diversidade de caminhos alternativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.