991 resultados para Computação científica


Relevância:

70.00% 70.00%

Publicador:

Resumo:

A constante evolução da tecnologia disponibilizou, atualmente, ferramentas computacionais que eram apenas expectativas há 10 anos atrás. O aumento do potencial computacional aplicado a modelos numéricos que simulam a atmosfera permitiu ampliar o estudo de fenômenos atmosféricos, através do uso de ferramentas de computação de alto desempenho. O trabalho propôs o desenvolvimento de algoritmos com base em arquiteturas SIMT e aplicação de técnicas de paralelismo com uso da ferramenta OpenACC para processamento de dados de previsão numérica do modelo Weather Research and Forecast. Esta proposta tem forte conotação interdisciplinar, buscando a interação entre as áreas de modelagem atmosférica e computação científica. Foram testadas a influência da computação do cálculo de microfísica de nuvens na degradação temporal do modelo. Como a entrada de dados para execução na GPU não era suficientemente grande, o tempo necessário para transferir dados da CPU para a GPU foi maior do que a execução da computação na CPU. Outro fator determinante foi a adição de código CUDA dentro de um contexto MPI, causando assim condições de disputa de recursos entre os processadores, mais uma vez degradando o tempo de execução. A proposta do uso de diretivas para aplicar computação de alto desempenho em uma estrutura CUDA parece muito promissora, mas ainda precisa ser utilizada com muita cautela a fim de produzir bons resultados. A construção de um híbrido MPI + CUDA foi testada, mas os resultados não foram conclusivos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As tecnologias de informação e comunicação na área da saúde não são só um instrumento para a boa gestão de informação, mas antes um fator estratégico para uma prestação de cuidados mais eficiente e segura. As tecnologias de informação são um pilar para que os sistemas de saúde evoluam em direção a um modelo centrado no cidadão, no qual um conjunto abrangente de informação do doente deve estar automaticamente disponível para as equipas que lhe prestam cuidados, independentemente de onde foi gerada (local geográfico ou sistema). Este tipo de utilização segura e agregada da informação clínica é posta em causa pela fragmentação generalizada das implementações de sistemas de informação em saúde. Várias aproximações têm sido propostas para colmatar as limitações decorrentes das chamadas “ilhas de informação” na saúde, desde a centralização total (um sistema único), à utilização de redes descentralizadas de troca de mensagens clínicas. Neste trabalho, propomos a utilização de uma camada de unificação baseada em serviços, através da federação de fontes de informação heterogéneas. Este agregador de informação clínica fornece a base necessária para desenvolver aplicações com uma lógica regional, que demostrámos com a implementação de um sistema de registo de saúde eletrónico virtual. Ao contrário dos métodos baseados em mensagens clínicas ponto-a-ponto, populares na integração de sistemas em saúde, desenvolvemos um middleware segundo os padrões de arquitetura J2EE, no qual a informação federada é expressa como um modelo de objetos, acessível através de interfaces de programação. A arquitetura proposta foi instanciada na Rede Telemática de Saúde, uma plataforma instalada na região de Aveiro que liga oito instituições parceiras (dois hospitais e seis centros de saúde), cobrindo ~350.000 cidadãos, utilizada por ~350 profissionais registados e que permite acesso a mais de 19.000.000 de episódios. Para além da plataforma colaborativa regional para a saúde (RTSys), introduzimos uma segunda linha de investigação, procurando fazer a ponte entre as redes para a prestação de cuidados e as redes para a computação científica. Neste segundo cenário, propomos a utilização dos modelos de computação Grid para viabilizar a utilização e integração massiva de informação biomédica. A arquitetura proposta (não implementada) permite o acesso a infraestruturas de e-Ciência existentes para criar repositórios de informação clínica para aplicações em saúde.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The last years have presented an increase in the acceptance and adoption of the parallel processing, as much for scientific computation of high performance as for applications of general intention. This acceptance has been favored mainly for the development of environments with massive parallel processing (MPP - Massively Parallel Processing) and of the distributed computation. A common point between distributed systems and MPPs architectures is the notion of message exchange, that allows the communication between processes. An environment of message exchange consists basically of a communication library that, acting as an extension of the programming languages that allow to the elaboration of applications parallel, such as C, C++ and Fortran. In the development of applications parallel, a basic aspect is on to the analysis of performance of the same ones. Several can be the metric ones used in this analysis: time of execution, efficiency in the use of the processing elements, scalability of the application with respect to the increase in the number of processors or to the increase of the instance of the treat problem. The establishment of models or mechanisms that allow this analysis can be a task sufficiently complicated considering parameters and involved degrees of freedom in the implementation of the parallel application. An joined alternative has been the use of collection tools and visualization of performance data, that allow the user to identify to points of strangulation and sources of inefficiency in an application. For an efficient visualization one becomes necessary to identify and to collect given relative to the execution of the application, stage this called instrumentation. In this work it is presented, initially, a study of the main techniques used in the collection of the performance data, and after that a detailed analysis of the main available tools is made that can be used in architectures parallel of the type to cluster Beowulf with Linux on X86 platform being used libraries of communication based in applications MPI - Message Passing Interface, such as LAM and MPICH. This analysis is validated on applications parallel bars that deal with the problems of the training of neural nets of the type perceptrons using retro-propagation. The gotten conclusions show to the potentiality and easinesses of the analyzed tools.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A matemática intervalar é uma teoria matemática originada na década de 60 com o objetivo de responder questões de exatidão e eficiência que surgem na prática da computação científica e na resolução de problemas numéricos. As abordagens clássicas para teoria da computabilidade tratam com problemas discretos (por exemplo, sobre os números naturais, números inteiros, strings sobre um alfabeto finito, grafos, etc.). No entanto, campos da matemática pura e aplicada tratam com problemas envolvendo números reais e números complexos. Isto acontece, por exemplo, em análise numérica, sistemas dinâmicos, geometria computacional e teoria da otimização. Assim, uma abordagem computacional para problemas contínuos é desejável, ou ainda necessária, para tratar formalmente com computações analógicas e computações científicas em geral. Na literatura existem diferentes abordagens para a computabilidade nos números reais, mas, uma importante diferença entre estas abordagens está na maneira como é representado o número real. Existem basicamente duas linhas de estudo da computabilidade no contínuo. Na primeira delas uma aproximação da saída com precisão arbitrária é computada a partir de uma aproximação razoável da entrada [Bra95]. A outra linha de pesquisa para computabilidade real foi desenvolvida por Blum, Shub e Smale [BSS89]. Nesta aproximação, as chamadas máquinas BSS, um número real é visto como uma entidade acabada e as funções computáveis são geradas a partir de uma classe de funções básicas (numa maneira similar às funções parciais recursivas). Nesta dissertação estudaremos o modelo BSS, usado para se caracterizar uma teoria da computabilidade sobre os números reais e estenderemos este para se modelar a computabilidade no espaço dos intervalos reais. Assim, aqui veremos uma aproximação para computabilidade intervalar epistemologicamente diferente da estudada por Bedregal e Acióly [Bed96, BA97a, BA97b], na qual um intervalo real é visto como o limite de intervalos racionais, e a computabilidade de uma função intervalar real depende da computabilidade de uma função sobre os intervalos racionais

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Na computação científica é necessário que os dados sejam o mais precisos e exatos possível, porém a imprecisão dos dados de entrada desse tipo de computação pode estar associada às medidas obtidas por equipamentos que fornecem dados truncados ou arredondados, fazendo com que os cálculos com esses dados produzam resultados imprecisos. Os erros mais comuns durante a computação científica são: erros de truncamentos, que surgem em dados infinitos e que muitas vezes são truncados", ou interrompidos; erros de arredondamento que são responsáveis pela imprecisão de cálculos em seqüências finitas de operações aritméticas. Diante desse tipo de problema Moore, na década de 60, introduziu a matemática intervalar, onde foi definido um tipo de dado que permitiu trabalhar dados contínuos,possibilitando, inclusive prever o tamanho máximo do erro. A matemática intervalar é uma saída para essa questão, já que permite um controle e análise de erros de maneira automática. Porém, as propriedades algébricas dos intervalos não são as mesmas dos números reais, apesar dos números reais serem vistos como intervalos degenerados, e as propriedades algébricas dos intervalos degenerados serem exatamente as dos números reais. Partindo disso, e pensando nas técnicas de especificação algébrica, precisa-se de uma linguagem capaz de implementar uma noção auxiliar de equivalência introduzida por Santiago [6] que ``simule" as propriedades algébricas dos números reais nos intervalos. A linguagem de especificação CASL, Common Algebraic Specification Language, [1] é uma linguagem de especificação algébrica para a descrição de requisitos funcionais e projetos modulares de software, que vem sendo desenvolvida pelo CoFI, The Common Framework Initiative [2] a partir do ano de 1996. O desenvolvimento de CASL se encontra em andamento e representa um esforço conjunto de grandes expoentes da área de especificações algébricas no sentido de criar um padrão para a área. A dissertação proposta apresenta uma especificação em CASL do tipo intervalo, munido da aritmética de Moore, afim de que ele venha a estender os sistemas que manipulem dados contínuos, sendo possível não só o controle e a análise dos erros de aproximação, como também a verificação algébrica de propriedades do tipo de sistema aqui mencionado. A especificação de intervalos apresentada aqui foi feita apartir das especificações dos números racionais proposta por Mossakowaski em 2001 [3] e introduz a noção de igualdade local proposta por Santiago [6, 5, 4]

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho abordou o resfriamento rápido com ar forçado de morango via simulação numérica. Para tanto, foi empregado o modelo matemático que descreve o processo de transferência de calor, com base na lei de Fourier, escrito em coordenadas esféricas e simplificado para descrever o processo unidimensional. A resolução da equação expressa pelo modelo matemático deu-se por meio da implementação de um algoritmo, fundamentado no esquema explícito do método numérico das diferenças finitas, executado no ambiente de computação científica MATLAB 6.1. A validação do modelo matemático foi realizada a partir da comparação de dados teóricos com dados obtidos num experimento, no qual morangos foram resfriados com ar forçado. Os resultados mostraram que esse tipo de investigação para a determinação do coeficiente de transferência de calor por convecção é promissora como ferramenta no suporte à decisão do uso ou desenvolvimento de equipamentos na área de resfriamento rápido de frutos esféricos com ar forçado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The flow of Ricci is an analytical tool, and a similar equation for heat geometry, a diffusive process which acts on a variety of metrics Riemannian and thus can be used in mathematics to understand the topology of varieties and also in the study geometric theories. Thus, the Ricci curvature plays an important role in the General Theory of Relativity, characterized as a geometric theory, which is the dominant term in the Einstein field equations. The present work has as main objectives to develop and apply Ricci flow techniques to general relativity, in this case, a three-dimensional asymptotically flat Riemannian metric as a set of initial data for Einstein equations and establish relations and comparisons between them.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O projeto Seguranet faz parte integrante do “Internet Segura”, o programa nacional dedicado à segurança na Internet e é da responsabilidade de um consórcio de entidades públicas e privadas portuguesas, entre estas, o Ministério da Educação e Ciência - a Fundação para a Ciência e a Tecnologia (que coordena), a Direção- Geral de Educação/ERTE, a Fundação para a Computação Científica Nacional - a Microsoft Portugal e outros parceiros da sociedade civil, como associações, empresas e universidades, entre outras. O Programa Internet Segura tem como objetivo combater a existência de conteúdos ilegais na Internet, minimizar os efeitos de conteúdos ilegais e lesivos nos cidadãos, promover a utilização segura da Internet e a consciencialização da sociedade para os riscos associados à utilização da Internet. O consórcio coopera ativamente com organizações internacionais e em particular com a INHOPE (International Association of Internet Hotlines ) e com a rede europeia INSAFE. Recorde-se que o INSAFE é a uma rede europeia de centros de consciencialização que promovem o uso seguro e responsável da Internet e dos dispositivos móveis por jovens. As ações a desenvolver pelo consórcio organizam-se em projetos estruturantes, projetos de intervenção transversal e projetos de intervenção focalizada. O projeto Seguranet enquadra-se na estratégia geral do consórcio que é responsável pelo Programa Internet Segura em Portugal . O projeto Seguranet constitui-se como um projeto focalizado, centra-se em particular nas populações escolares e tem como missão promover o uso seguro e crítico da Internet por parte dos alunos/alunas portugueses e é coordenado pela Direção Geral da Educação – Equipa de Recursos e Tecnologias Educativas. Tendo em vista alcançar os objectivo da sua missão, o projeto Seguranet promove, junto das escolas, dos professores, dos alunos e da comunidade, um conjunto de ações, atividades e iniciativas que contribuem para a aquisição de conhecimentos acerca dos benefícios e dos riscos da Internet e a adoção de comportamentos seguros e atitudes responsáveis por parte das crianças e dos jovens. O estudo de avaliação que se apresenta abrange especificamente os seguintes vectores de ação do projeto Seguranet: 1. Portal Seguranet - que fornece conteúdos e propostas de atividades para cada um dos diferentes grupos-alvo; 2. Os Desafios - que constituem propostas de trabalho educativo em torno da temática do uso seguro da Internet bem como envolvem a criação e produção de conteúdos; 3. Intervenções e atividades - tais como ações de sensibilização destinadas a alunos, professores, pais e comunidade educativa e especificamente as ações promovidas pelos Centros de Competência TIC da DGE-ERTE. 4. Semana da Internet Mais Segura - uma proposta anual de iniciativa europeia desenvolvida e promovida em Portugal pelo Centro de Internet Segura e pelo Projeto Seguranet durante o mês de Fevereiro de cada ano. 5. Escola eSafety Label - uma iniciativa que permite a distinção das escolas com o Selo de Segurança Digital, como aquelas escolas que promovem a segurança online da comunidade educativa e que por isso se envolvem em atividades relacionadas com a segurança de crianças e jovens e promovem elevados padrões de segurança na instituição. 6. Painel de jovens - que é constituído por jovens pertencentes a escolas participantes no projeto Seguranet que se reúnem e participam ativamente nas sua atividades, sendo as suas opiniões e perspetivas consideradas quando do planeamento de novas ações, novos materiais ou atividades. 7. Equipa Seguranet – corresponde à estrutura do Ministério da Educação e Ciência - DGE-ERTE – e que é responsável pela implementação do projeto em Portugal. Cada uma das dimensões assinaladas concorre para os objetivos do projeto Seguranet e, neste sentido, corresponde a diferentes propostas de trabalho educativo, com diferentes atores, recursos, tecnologias, contextos e intervenientes pelo que são de esperar formas de intervenção e ação muito diferenciadas. Tal diversidade de ações implica naturalmente a necessidade de criar e gerar dados e informações também diferenciados, obrigando à definição e consideração de critérios de avaliação do seu impacto, também diferentes. A diversidade de atividades desenvolvidas no âmbito do projeto Seguranet implica o reconhecimento de que os objetivos do projeto podem ser alcançados utilizando uma combinação de diferentes atividades, iniciativas e intervenções junto da comunidade educativa. O envolvimento de diferentes pessoas, equipas, organizações e intervenientes torna-se um traço comum a estas atividades, pelo que se tornou necessário adotar uma metodologia rigorosa e ao mesmo tempo flexível, que permitisse lidar com esta diversidade bem como elaborar um inventário das fontes de informação por atividade, de modo a identificar a proveniência e a natureza da informação e selecionar aquela que se revelou estritamente indispensável, tendo em vista a realização do estudo de avaliação de impacto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Image segmentation is one of the image processing problems that deserves special attention from the scientific community. This work studies unsupervised methods to clustering and pattern recognition applicable to medical image segmentation. Natural Computing based methods have shown very attractive in such tasks and are studied here as a way to verify it's applicability in medical image segmentation. This work treats to implement the following methods: GKA (Genetic K-means Algorithm), GFCMA (Genetic FCM Algorithm), PSOKA (PSO and K-means based Clustering Algorithm) and PSOFCM (PSO and FCM based Clustering Algorithm). Besides, as a way to evaluate the results given by the algorithms, clustering validity indexes are used as quantitative measure. Visual and qualitative evaluations are realized also, mainly using data given by the BrainWeb brain simulator as ground truth

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Informação - FFC

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper aims to develop a web application for viewing Atmospheric Electrical Discharge, plotting marks on a map, using as base data provided by SIMEPAR. The developed system uses techniques and tools which enable the creation of Web system without requiring the use of plugins or external software, running on virtually all web browsers and platforms. This tool aims to aid meteorologists monitor agile discharges and help society at large to prevent accidents caused by this phenomenon of nature

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A eficiência da amamentação exige uma complexa coordenação entre sucção, deglutição e respiração, sendo que a tecnologia tem possibilitado importantes avanços na compreensão desse processo. Porém, não foram encontrados vídeos disponíveis na internet que demonstrassem a anatomia e fisiologia da amamentação, de modo didático e fidedigno à ciência atual. Este trabalho teve por objetivo descrever o desenvolvimento de uma sequência em computação gráfica sobre a sucção e a deglutição, resultante da produção digital do Bebê Virtual, bem como validar tal produção quanto ao conteúdo e prover adequações necessárias ao material educacional. Para a produção das iconografias em 3D da sucção e deglutição no Bebê Virtual, inicialmente foi elaborado um mapa conceitual e uma matriz de conteúdos, objetivos e competências voltadas ao material educacional. Posteriormente foi elaborado um roteiro científico que abordou a anatomia do crânio, face, cavidade oral, faringe, laringe e esôfago do recém-nascido, bem como, a descrição dos mecanismos fisiológicos relacionados à sucção e às fases oral e faríngea da deglutição no bebê. Para isso foram utilizadas 14 publicações do período de 1998 a 2008, que continham informações relevantes para demonstrar a amamentação. Os conteúdos teóricos foram organizados em cenas principais, possibilitando a criação de previews das sequências dinâmicas, as quais foram avaliadas por profissionais de anatomia, fonoaudiologia e medicina, possibilitando os ajustes necessários e a construção das imagens em computação gráfica 3D. Para análise da validade de conteúdo dessas imagens foi verificada a representatividade dos itens que o compõe, por meio de consulta à literatura. Foram incluídos estudos que utilizaram auxílio tecnológico e abordaram o tema proposto em bebês a termo e saudáveis, sem alterações neurológicas ou anomalias craniofaciais. Foram excluídas as publicações realizadas com bebês pré-termo, sindrômicos, com anomalias, doenças neurológicas ou qualquer alteração que pudesse interferir na amamentação, revisões de literatura e relatos de caso. Os artigos selecionados foram analisados e classificados quanto ao nível de evidência científica, predominando o nível três de evidência. A análise de conteúdo demonstrou a necessidade de adequações nas iconografias 3D, para que o processo de sucção e deglutição demonstrado no bebê virtual pudesse corresponder ao conhecimento científico atual. Tais adequações foram propostas a partir dos achados de 9 estudos, publicados entre 2008 e 2014, que utilizaram ultrassonografia para demonstrar como ocorre o processo de amamentação. Desta forma, foram modificados os aspectos da pega, da movimentação de língua, mandíbula, palato mole e laringe, além da sincronização da sucção/deglutição/respiração e deslocamento do mamilo, num processo desenvolvido em cinco etapas. Assim, o presente estudo descreveu o processo de desenvolvimento das iconografias em 3D sobre a anatomia e fisiologia da sucção e deglutição no recém-nascido a termo, sendo que a validade de conteúdo permitiu atualizar vários aspectos da amamentação do Bebê Virtual, quebrando velhos paradigmas e possibilitando ilustrar didaticamente as evidências científicas relacionadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015.