993 resultados para Teoria da computação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O conjunto de técnicas de Geomática tem sido um poderoso aliado no apoio à tomada de decisões e manipulação de dados espaciais. Nas últimas décadas tornou-se quase indispensável na gestão de recursos humanos e recursos naturais. Na área da Saúde, a Geomática tem viabilizado estudos sobre: análise da distribuição de pacientes; variações na ocorrência de epidemias; monitoramento de vetores; avaliação em tempo real de situações de emergência ou catastróficas, entre outros. A associação da Medicina com a Geografia é antiga. A associação entre a saúde e a espacialização das doenças deve considerar a estruturação física do espaço geográfico a partir da caracterização de cada parte componente do sistema como preconiza a perspectiva sistêmica na Teoria Geral de Sistema, pois a população é parte integrante do espaço geográfico no qual ocorrem determinados agravos à saúde. Nestes pontos recai a relevância da presente pesquisa. O estudo foi desenvolvido na área da Bacia Hidrográfica de Jacarepaguá no município do Rio de Janeiro. Com aproximadamente 295 km2 é composta por 19 bairros e tem uma população aproximada de 682000 habitantes. O estudo pretendeu estruturar uma metodologia para inserção das técnicas de Geomática na prática de análises de dados de saúde, apoiada na Teoria Geral de Sistemas, visando contribuir no processo de vigilância ambiental em saúde permitindo realizar um prognóstico de situações de risco de determinada população. A base cartográfica que apoiou o estudo foi construída através de cartas topográficas da DSG na escala 1:50000. Das cartas foram retiradas informações de planimetria relevantes ao estudo e as informações de altimetria que foram utilizadas na elaboração do modelo digital de terreno (MDT). Com o MDT foi gerado o mapa de declividade por grau que permitiu criar divisões em 5 classes para posterior geração de mapas temáticos com os dados de saúde. Os dados de saúde foram retirados do Sistema de Informações de Notificação de Agravos (SINAN) disponibilizado pelo Ministério da Saúde. A doença analisada foi a leptospirose. Os casos foram localizados pontualmente a partir dos endereços de residência. A hipótese aventada neste estudo era a existência de um alto grau de correlação entre as partes componentes representadas pela estruturação física do espaço e a ocorrência de leptospirose. Com os resultados comprovou-se a hipótese nula, pois somente ocorrem doenças em áreas associadas ao Fundo Chato da Baixada de Jacarepaguá e nos Declives Suaves dos Morros Isolados, também localizados no Subsistema Baixada. Isto demonstra que em termos desta doença existe uma ausência de população nesta componente espacial em áreas de maiores declividades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Métodos para GWS; Teoria dos métodos de regressão; Computação do método Random (Ridge) Regression BLUP (RR-BLUP/GWS); Fenótipos corrigidos; Frequências alélicas, variância dos marcadores e herdabilidade; Marcadores codominantes (SNP) ? Modelo genotípico; Marcadores dominantes (DArT) - Modelo genotípico; Marcadores codominantes (SNP) ? Modelo gamético ou alélico; Número de marcadores com efeitos significativos; Populações de estimação, validação e seleção; População de validação e Jacknife; Correlação e regressão entre valores genéticos preditos e fenótipos na população de validação; Análise de associação na GWAS; Software Selegen Genômica: Random (Ridge) Regression BLUP: RR-BLUP/GWS; Exemplo aplicado ao melhoramento do eucalipto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A cidade de Piraí, no estado do Rio de Janeiro, Brasil, é palco do programa Piraí Digital, um leque de iniciativas, em cinco áreas de atuação – governo, educação, saúde, negócios e cidadania –, com o objetivo de vencer a exclusão digital no município e contribuir para seu desenvolvimento. O programa foi estudado por meio da associação entre um modelo heurístico para análise da inclusão digital e a Teoria Ator-Rede (ANT). O trabalho apresenta a descrição da evolução do programa segundo os atores que o construíram. Entre 1997 e 2009, Piraí Digital contribuiu para uma série de mudanças positivas em Piraí, notadamente nas áreas de educação, a qual adotou a computação 1:1 em toda a rede municipal no ano de 2009; saúde, que utiliza a estrutura de rede de computadores e internet da cidade para disseminar seus sistemas; e governo, onde a administração pública teve ganhos de produtividade e arrecadação por meio da informatização da máquina administrativa. O estudo de Piraí Digital permite compreender a importância da associação de artefatos – rede de computadores, telecentros, Planos Diretores e outros – e das pessoas nos esforços para vencer a exclusão digital e contribuir para o desenvolvimento local. Explorando o contraste entre a grande notoriedade de Piraí Digital fora do município e o baixo conhecimento do programa pela população local, o autor faz a analogia com uma obra de saneamento, pouco conhecida e visível, mas essencial para a população. Em Piraí, o saneamento digital está pronto, com bits jorrando das torneiras nas escolas e a saúde se beneficiando da TI para escoar seu fluxo de informações para benefício dos cidadãos piraienses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação visa identificar como se dá o uso da internet pelos brasileiros considerando as dimensões: governo eletrônico, lazer, informação, comunicação, educação, comércio eletrônico, e analisando itens são melhores discriminadores da dimensão bem como construir um indicador de precedência nos tipos de uso. Para tal será utilizada a fonte de dados secundária fornecida pelo centro de estudos CETIC referente à pesquisa TIC Domicílios 2009. E por intermédio da técnica estatística Teoria da Resposta ao Item (TRI) cada brasileiro da amostra receberá uma pontuação relacionada às suas respostas aos itens da dimensão. Este trabalho apresenta resultados que permitem explicar aspectos relacionados ao uso de internet pelos brasileiros. Para algumas dimensões agrupou-se os itens de modo a apresentar a dimensão discriminada em grupos. Para as dimensões de Comércio Eletrônico e de Governo Eletrônico concluiu-se que os itens de suas dimensões não discriminam grupos de brasileiros com relação o seu uso, pois pela curva característica do item, cada item discrimina os brasileiros na mesma dimensão da mesma forma. Já para Comunicação, Educação, Informação e Lazer são discriminados por grupos de itens mais prováveis ao uso pelo brasileiro e usos menos prováveis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, a relevância da Teoria dos Grafos na descrição da rela ção entre indiví duos cresceu signifi cativamente, contribuindo para a ascensão do fenômeno das redes sociais. Sua importância tem permitido a explora ção polí tico-econômica de informa ções escondidas em sua estrutura. Assumindo que um parlamentar maximiza sua utilidade ao fortalecer o seu partido e o estado que representa, construímos uma rede política baseada no Congresso Brasileiro, o que permite a identificação de elementos da Teoria do Seletorado. Através de técnicas de Processamento de Linguagem Natural aplicadas à diferentes fontes de notícia, é possível atualizar a rede de forma a identificar alterações na estrutura de poder do sistema político brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The frequency selective surfaces, or FSS (Frequency Selective Surfaces), are structures consisting of periodic arrays of conductive elements, called patches, which are usually very thin and they are printed on dielectric layers, or by openings perforated on very thin metallic surfaces, for applications in bands of microwave and millimeter waves. These structures are often used in aircraft, missiles, satellites, radomes, antennae reflector, high gain antennas and microwave ovens, for example. The use of these structures has as main objective filter frequency bands that can be broadcast or rejection, depending on the specificity of the required application. In turn, the modern communication systems such as GSM (Global System for Mobile Communications), RFID (Radio Frequency Identification), Bluetooth, Wi-Fi and WiMAX, whose services are highly demanded by society, have required the development of antennas having, as its main features, and low cost profile, and reduced dimensions and weight. In this context, the microstrip antenna is presented as an excellent choice for communications systems today, because (in addition to meeting the requirements mentioned intrinsically) planar structures are easy to manufacture and integration with other components in microwave circuits. Consequently, the analysis and synthesis of these devices mainly, due to the high possibility of shapes, size and frequency of its elements has been carried out by full-wave models, such as the finite element method, the method of moments and finite difference time domain. However, these methods require an accurate despite great computational effort. In this context, computational intelligence (CI) has been used successfully in the design and optimization of microwave planar structures, as an auxiliary tool and very appropriate, given the complexity of the geometry of the antennas and the FSS considered. The computational intelligence is inspired by natural phenomena such as learning, perception and decision, using techniques such as artificial neural networks, fuzzy logic, fractal geometry and evolutionary computation. This work makes a study of application of computational intelligence using meta-heuristics such as genetic algorithms and swarm intelligence optimization of antennas and frequency selective surfaces. Genetic algorithms are computational search methods based on the theory of natural selection proposed by Darwin and genetics used to solve complex problems, eg, problems where the search space grows with the size of the problem. The particle swarm optimization characteristics including the use of intelligence collectively being applied to optimization problems in many areas of research. The main objective of this work is the use of computational intelligence, the analysis and synthesis of antennas and FSS. We considered the structures of a microstrip planar monopole, ring type, and a cross-dipole FSS. We developed algorithms and optimization results obtained for optimized geometries of antennas and FSS considered. To validate results were designed, constructed and measured several prototypes. The measured results showed excellent agreement with the simulated. Moreover, the results obtained in this study were compared to those simulated using a commercial software has been also observed an excellent agreement. Specifically, the efficiency of techniques used were CI evidenced by simulated and measured, aiming at optimizing the bandwidth of an antenna for wideband operation or UWB (Ultra Wideband), using a genetic algorithm and optimizing the bandwidth, by specifying the length of the air gap between two frequency selective surfaces, using an optimization algorithm particle swarm

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Currently, one of the biggest challenges for the field of data mining is to perform cluster analysis on complex data. Several techniques have been proposed but, in general, they can only achieve good results within specific areas providing no consensus of what would be the best way to group this kind of data. In general, these techniques fail due to non-realistic assumptions about the true probability distribution of the data. Based on this, this thesis proposes a new measure based on Cross Information Potential that uses representative points of the dataset and statistics extracted directly from data to measure the interaction between groups. The proposed approach allows us to use all advantages of this information-theoretic descriptor and solves the limitations imposed on it by its own nature. From this, two cost functions and three algorithms have been proposed to perform cluster analysis. As the use of Information Theory captures the relationship between different patterns, regardless of assumptions about the nature of this relationship, the proposed approach was able to achieve a better performance than the main algorithms in literature. These results apply to the context of synthetic data designed to test the algorithms in specific situations and to real data extracted from problems of different fields

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma extensão do provador haRVey destinada à verificação de obrigações de prova originadas de acordo com o método B. O método B de desenvolvimento de software abrange as fases de especificação, projeto e implementação do ciclo de vida do software. No contexto da verificação, destacam-se as ferramentas de prova Prioni, Z/EVES e Atelier-B/Click n Prove. Elas descrevem formalismos com suporte à checagem satisfatibilidade de fórmulas da teoria axiomática dos conjuntos, ou seja, podem ser aplicadas ao método B. A checagem de SMT consiste na checagem de satisfatibilidade de fórmulas da lógica de primeira-ordem livre de quantificadores dada uma teoria decidível. A abordagem de checagem de SMT implementada pelo provador automático de teoremas haRVey é apresentada, adotando-se a teoria dos vetores que não permite expressar todas as construções necessárias às especificações baseadas em conjuntos. Assim, para estender a checagem de SMT para teorias dos conjuntos destacam-se as teorias dos conjuntos de Zermelo-Frankel (ZFC) e de von Neumann-Bernays-Gödel (NBG). Tendo em vista que a abordagem de checagem de SMT implementada no haRVey requer uma teoria finita e pode ser estendida para as teorias nãodecidíveis, a teoria NBG apresenta-se como uma opção adequada para a expansão da capacidade dedutiva do haRVey à teoria dos conjuntos. Assim, através do mapeamento dos operadores de conjunto fornecidos pela linguagem B a classes da teoria NBG, obtem-se uma abordagem alternativa para a checagem de SMT aplicada ao método B

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)