965 resultados para parallel implementation
Resumo:
Due to changes in land use over the last century, the physical nature of many streams and rivers in the British Isles has probably changed. In some cases this change may be large for example as a result of flood defence schemes and is easily observed, whilst in other cases altered land use, farming, forestry or urbanization may have resulted in more subtle changes to river features. This working guide draws together a way of assessing habitat in any stream or river and determine sites or reaches on the assessed watercourse that may benefit from habitat improvement schemes. It will determine a method of measuring existing habitat in a broad sense, whilst referring to R and D studies currently being undertaken in this area. A method of prioritising any proposed habitat restoration work will be suggested. The limitations of fisheries improvement schemes in terms of cross functional acceptance (flood defence and conservation) will be examined along with suggested proposals for some example watercourses. The need for pre and post enhancement monitoring will be discussed as will the requirement for maintenance programs on schemes. Finally methods for determining the cost benefits of small schemes will be examined, compared to other currently used enhancement strategies. This will allow small scale revenue schemes to be used to back up pre project cost benefit analysis as required in future capital submissions.
Resumo:
The CTC algorithm, Consolidated Tree Construction algorithm, is a machine learning paradigm that was designed to solve a class imbalance problem, a fraud detection problem in the area of car insurance [1] where, besides, an explanation about the classification made was required. The algorithm is based on a decision tree construction algorithm, in this case the well-known C4.5, but it extracts knowledge from data using a set of samples instead of a single one as C4.5 does. In contrast to other methodologies based on several samples to build a classifier, such as bagging, the CTC builds a single tree and as a consequence, it obtains comprehensible classifiers. The main motivation of this implementation is to make public and available an implementation of the CTC algorithm. With this purpose we have implemented the algorithm within the well-known WEKA data mining environment http://www.cs.waikato.ac.nz/ml/weka/). WEKA is an open source project that contains a collection of machine learning algorithms written in Java for data mining tasks. J48 is the implementation of C4.5 algorithm within the WEKA package. We called J48Consolidated to the implementation of CTC algorithm based on the J48 Java class.
Resumo:
Solomon Islands has recently developed substantial policy aiming to support inshore fisheries management, conservation, climate change adaptation and ecosystem approaches to resource management. A large body of experience in community based approaches to management has developed but “upscaling” and particularly the implementation of nation-wide approaches has received little attention so far. With the emerging challenges posed by climate change and the need for ecosystem wide and integrated approaches attracting serious donor attention, a national debate on the most effective approaches to implementation is urgently needed. This report discusses potential implementation of “a cost-effective and integrated approach to resource management that is consistent with national policy and needs” based on a review of current policy and institutional structures and examination of a recent case study from Lau, Malaita using stakeholder, transaction and financial cost analyses.
Design and implementation of fishery modules in integrated household surveys in developing countries
Resumo:
Fish and other aquatic animals contribute to the food security of citizens of developing countries, both as a source of income and as a component of healthy diets, yet fishing is not currently captured in most integrated household surveys. This sourcebook provides essential technical guidance on the design of statistical modules and questionnaires aimed at collecting fishery data at the household level. Background on the main policies important to the fishery sector, information on the data needed to analyze issues of policy relevance, and methodology on the construction of survey questions to collect necessary data are also provided. The document is organized to provide essential technical guidance on how to design statistical modules and questionnaires aimed at collecting fishery data at the household level. It includes an overview of the main technical and statistical challenges related to sampling fishery-dependent households. The document starts with an introductory section identifying the potential reasons why fisheries and in particular small-scale fisheries have not been adequately included in national statistical systems in a large number of countries. The report then proposes a succinct review of what is known (and what remains unknown) about small-scale fisheries and their contribution to the livelihoods of households in sub-Saharan Africa. It also provides readers with background on the main policies that are important to the fishery sector, information on the data needed to analyze issues of policy relevance, and methodology on the construction of survey questions to collect necessary data.
Resumo:
A gestão na área de saúde vem sofrendo modificações ao longo do tempo. As últimas duas décadas foram voltadas para o crescimento e implementação da gestão profissional neste setor, com o suporte do uso de sistemas de planejamento informatizados como apoio à gestão. Assim, este estudo tem como principal fio condutor as premissas da Gestão e do uso de ferramentas gerenciais. Embora não seja um estudo de caso, apoia-se em uma experiência concreta de gestão no Instituto Nacional de Câncer do Rio de Janeiro. Nesta pesquisa é observado que as organizações de saúde sempre estiveram voltadas para a assistência sem preocupação com a gestão em si, mas que a partir da crise econômica mundial dos anos 80 houve mudanças neste cenário. Estas alterações ocorreram não somente na gestão da saúde, como também na profissionalização do gestor. O uso de ferramentas gerenciais também é contemplado nesta pesquisa, porquanto hoje se debate a sua importância no auxílio do planejamento e da estratégia a ser orientada para estas organizações. Paralelamente à discussão sobre os sistemas mais usados nas empresas e organizações de saúde, é discutida como ferramenta gerencial principal nesta tese o Sistema de Planejamento (SISPLAN) do Instituto Nacional de Câncer do Rio de Janeiro, um instrumento desenvolvido na Instituição e que vem redesenhando os espaços institucionais de decisão e de discussão de políticas. Este estudo demonstra que a aplicação desta ferramenta gerencial possibilitou a implementação dos projetos prioritários e mais relevantes. Como ferramenta gerencial, o SISPLAN facilitou o desenvolvimento de uma gestão participativa e compartilhada em todos os níveis. Apesar das melhorias que ainda são necessárias para o aperfeiçoamento deste instrumento, são inegáveis as conquistas obtidas no transcorrer deste processo. Percebe-se, contudo, que apesar das suas características o SISPLAN não parece ser a ferramenta gerencial que expresse a estratégia da instituição, pois ele se comporta como uma ferramenta de planejamento. Assim, conclui-se que pelas características apresentadas durante o estudo, que o balanced scorecard deva ser associado ao SISPLAN como uma ferramenta gerencial complementar para permitir a construção da estratégia, baseada em uma cadeia de relações de causa e efeito e de fatores impulsionadores. Esta tese vem demonstrar que a disponibilização de uma ferramenta gerencial é fundamental para o sucesso da gestão.
Resumo:
Research into developing farming methods for giant clams at the ICLARM Coastal Aquaculture Centre in the Solomon Islands has proceeded in parallel with a program of village-based trials. This program is an attempt to involve the envisaged recipients of technology at a very early stage. The considerations, design and initial implementation of this program from 1988 to 1990 are described in this article. The expansion, impact and results of the program will be the subject of future publications by the scientists involved.
Resumo:
Este trabalho de pesquisa tem por objetivo apresentar e investigar a viabilidade de um método numérico que contempla o paralelismo no tempo. Este método numérico está associado a problemas de condição inicial e de contorno para equações diferenciais parciais (evolutivas). Diferentemente do método proposto neste trabalho, a maioria dos métodos numéricos associados a equações diferencias parciais evolutivas e tradicionalmente encontrados, contemplam apenas o paralelismo no espaço. Daí, a motivação em realizar o presente trabalho de pesquisa, buscando não somente um método com paralelismo no tempo mas, sobretudo, um método viável do ponto de vista computacional. Para isso, a implementação do esquema numérico proposto está por conta de um algoritmo paralelo escrito na linguagem C e que utiliza a biblioteca MPI. A análise dos resultados obtidos com os testes de desempenho revelam um método numérico escalável e que exige pouco nível de comunicação entre processadores.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.