846 resultados para Administração - Processamento de dados


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Launching centers are designed for scientific and commercial activities with aerospace vehicles. Rockets Tracking Systems (RTS) are part of the infrastructure of these centers and they are responsible for collecting and processing the data trajectory of vehicles. Generally, Parabolic Reflector Radars (PRRs) are used in RTS. However, it is possible to use radars with antenna arrays, or Phased Arrays (PAs), so called Phased Arrays Radars (PARs). Thus, the excitation signal of each radiating element of the array can be adjusted to perform electronic control of the radiation pattern in order to improve functionality and maintenance of the system. Therefore, in the implementation and reuse projects of PARs, modeling is subject to various combinations of excitation signals, producing a complex optimization problem due to the large number of available solutions. In this case, it is possible to use offline optimization methods, such as Genetic Algorithms (GAs), to calculate the problem solutions, which are stored for online applications. Hence, the Genetic Algorithm with Maximum-Minimum Crossover (GAMMC) optimization method was used to develop the GAMMC-P algorithm that optimizes the modeling step of radiation pattern control from planar PAs. Compared with a conventional crossover GA, the GAMMC has a different approach from the conventional one, because it performs the crossover of the fittest individuals with the least fit individuals in order to enhance the genetic diversity. Thus, the GAMMC prevents premature convergence, increases population fitness and reduces the processing time. Therefore, the GAMMC-P uses a reconfigurable algorithm with multiple objectives, different coding and genetic operator MMC. The test results show that GAMMC-P reached the proposed requirements for different operating conditions of a planar RAV.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study proposes a solution responsible for scheduling data processing with variable demand in cloud environments. The system built check specific variables to the business context of a company incubated at Digital Metropole Institute of UFRN. Such a system generates an identification strategy machinery designs available in a cloud environment, focusing on processing performance, using data load balancing strategies and activities of parallelism in the software execution flow. The goal is to meet the seasonal demand within a standard time limit set by the company, controlling operating costs by using cloud services in the IaaS layer.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This document focuses the projects developed during two independent internships, which were carried out at Inficon AG and PT Inovação & Sistemas. Since the research areas of both internships are unrelated, individual abstracts are presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A constante evolução da tecnologia disponibilizou, atualmente, ferramentas computacionais que eram apenas expectativas há 10 anos atrás. O aumento do potencial computacional aplicado a modelos numéricos que simulam a atmosfera permitiu ampliar o estudo de fenômenos atmosféricos, através do uso de ferramentas de computação de alto desempenho. O trabalho propôs o desenvolvimento de algoritmos com base em arquiteturas SIMT e aplicação de técnicas de paralelismo com uso da ferramenta OpenACC para processamento de dados de previsão numérica do modelo Weather Research and Forecast. Esta proposta tem forte conotação interdisciplinar, buscando a interação entre as áreas de modelagem atmosférica e computação científica. Foram testadas a influência da computação do cálculo de microfísica de nuvens na degradação temporal do modelo. Como a entrada de dados para execução na GPU não era suficientemente grande, o tempo necessário para transferir dados da CPU para a GPU foi maior do que a execução da computação na CPU. Outro fator determinante foi a adição de código CUDA dentro de um contexto MPI, causando assim condições de disputa de recursos entre os processadores, mais uma vez degradando o tempo de execução. A proposta do uso de diretivas para aplicar computação de alto desempenho em uma estrutura CUDA parece muito promissora, mas ainda precisa ser utilizada com muita cautela a fim de produzir bons resultados. A construção de um híbrido MPI + CUDA foi testada, mas os resultados não foram conclusivos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Advances in FPGA technology and higher processing capabilities requirements have pushed to the emerge of All Programmable Systems-on-Chip, which incorporate a hard designed processing system and a programmable logic that enable the development of specialized computer systems for a wide range of practical applications, including data and signal processing, high performance computing, embedded systems, among many others. To give place to an infrastructure that is capable of using the benefits of such a reconfigurable system, the main goal of the thesis is to implement an infrastructure composed of hardware, software and network resources, that incorporates the necessary services for the operation, management and interface of peripherals, that coompose the basic building blocks for the execution of applications. The project will be developed using a chip from the Zynq-7000 All Programmable Systems-on-Chip family.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação de mestrado, Engenharia Electrónica e Telecomunicações, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2011

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Combining information on kinetics and kinematics of the trunk during gait is important for both clinical and research purposes, since it can help in better understanding the mechanisms behind changes in movement patterns in chronic low back pain patients. Although three-dimensional gait analysis has been used to evaluate chronic low back pain and healthy individuals, the reliability and measurement error of this procedure have not been fully established. The main purpose of this thesis is to gain a better understanding about the differences in the biomechanics of the trunk and lower limbs during gait, in patients and healthy individuals. To achieve these aims, three studies were developed. The first two, adopted a prospective design and focused on the reliability and measurement error of gait analysis. In these test-retest studies, chronic low back pain and healthy individuals were submitted to a gait assessment protocol, with two distinct evaluation moments, separated by one week. Gait data was collected using a 13-camera opto-electronic system and three force platforms. Data analysis included the computation of time-distance parameters, as well as the peak values for lower limb and trunk joint angles/moments. The third study followed a cross sectional design, where gait in chronic low back pain individuals was compared with matched controls. Step-to-step variability of the thoracic, lumbar and hips was calculated, and step-to-step deviations of these segments from their average pattern (residual rotations) were correlated to each other. The reliability studies in this thesis show that three-dimensional gait analysis is a reliable and consistent procedure for both chronic low back pain and healthy individuals. The results suggest varied reliability indices for multi-segment trunk joint angles, joint moments and time-distance parameters during gait, together with an acceptable level of error (particularly regarding sagittal plane). Our findings also show altered stride-to-stride variability of lumbar and thoracic segments and lower trunk joint moments in patients. These kinematic and kinetic results lend support to the notion that chronic low back pain individuals exhibit a protective movement strategy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como objecti- vo mostrar os resultados preliminares do estudo de prospecção geoarqueológica realizado no povoado do Outeiro do Circo. O trabalho consistiu no cruzamen- to de dois métodos de prospecção geofísica: georradar e magnetometria. Para concretizar o objectivo da missão realizaram-se ensaios dos dois métodos em áreas dis- tintas. O processamento dos dados registados permitiu identificar estruturas enterradas, interpretadas como vestígios da muralha que rodeava o povoado e de edifíci- os que terão existido no seu interior. Essas estruturas serão em breve confirmadas pelas escavações arque- ológicas em curso.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Para este estudo, realizou-se o inventário florestal amostral de seis lotes, em um total de 18 parcelas permanentes na Comunidade Santo Antônio, localizado a altura do km 124, município de Mojuí dos Campos-PA. Na área são praticadas atividades de manejo com a exploração florestal em parceria empresa-comunidade e a produção e comercialização de produtos florestais nãomadeireiros (PFNM). Após o procedimento experimental em campo, levantamento das informações e processamento dos dados foram realizadas inferências quantitativas para avaliar a estrutura diamétrica arbórea nos diferentes lotes amostrados. As árvores foram agrupadas em seis intervalos de classes diamétricas com amplitude de 10 cm. Constatou-se que a distribuição diamétrica da comunidade arbórea foi tipo exponencial negativa, que mais de 60% dos indivíduos está na primeira classe, para árvores menores de DAP <20 cm. Conclui-se que e ocorre alta similaridade na distribuição dos indivíduos nas classes diamétricas entre os lotes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trata do .problema de análise de dados na administração de negócios. Aborda as tecnologias de base estatística para análise de dados e informações e apoio ao processo decisório. Abrange o uso de tecnologia de delineamento de experimentos em diversas áreas da administração apresenta o uso de delineamento de experimentos (DOX) na filosofia de Taguchi, programa de qualidade Seis Sigma e na reengenharia de processos. Descreve a geração do conhecimento ou "inteligência" a partir da transformação de dados em informações e informações em conhecimento

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A utilização de computadores na sociedade atual é uma realidade. As aplicações com base em computadores tem se multiplicado num ritmo crescente, conquistando cada vez mais novas áreas de atividades técnico-econômica. Está abordagem enfatiza a administração de informações em substituição á enfase colocada nos programas, procedimentos, equipamentos periféricos, etc.