787 resultados para Análise de fluxo de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dois modelos mais precisos de análise de fluxo de dados voltados para o teste de programas que utilizaram ponteiros e campos de registros são apresentados. Os modelos propostos são baseados em uma abordagem conservadora e foram implementados na ferramenta POKE-TOOL. A conjectura é que a análise de fluxo de dados mais precisa aumenta a eficácia do teste a um custo razoável .Para investigar essa conjectura, um estudo de caso foi realizado para avaliar a eficácia eo custo da utilização dos dois modelos no teste com duas famílias diferentes de critérios de teste baseados em análise de fluxo de dados. Os resultados obtidos indicam que a eficácia dos modelos dependem do programa e dos defeitos que ele contém. A segunda observação em especial indica que existem defeitos cuja detecção é facilitada quando os modelos propostos são utilizados. Para uma das famílias de critérios de teste, foi observado que o custo adicional causado pela análise mais precisa de fluxo de dados é razoável.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The increase of applications complexity has demanded hardware even more flexible and able to achieve higher performance. Traditional hardware solutions have not been successful in providing these applications constraints. General purpose processors have inherent flexibility, since they perform several tasks, however, they can not reach high performance when compared to application-specific devices. Moreover, since application-specific devices perform only few tasks, they achieve high performance, although they have less flexibility. Reconfigurable architectures emerged as an alternative to traditional approaches and have become an area of rising interest over the last decades. The purpose of this new paradigm is to modify the device s behavior according to the application. Thus, it is possible to balance flexibility and performance and also to attend the applications constraints. This work presents the design and implementation of a coarse grained hybrid reconfigurable architecture to stream-based applications. The architecture, named RoSA, consists of a reconfigurable logic attached to a processor. Its goal is to exploit the instruction level parallelism from intensive data-flow applications to accelerate the application s execution on the reconfigurable logic. The instruction level parallelism extraction is done at compile time, thus, this work also presents an optimization phase to the RoSA architecture to be included in the GCC compiler. To design the architecture, this work also presents a methodology based on hardware reuse of datapaths, named RoSE. RoSE aims to visualize the reconfigurable units through reusability levels, which provides area saving and datapath simplification. The architecture presented was implemented in hardware description language (VHDL). It was validated through simulations and prototyping. To characterize performance analysis some benchmarks were used and they demonstrated a speedup of 11x on the execution of some applications

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEG

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa os fluxos de informação relativos à tramitação de medidas provisórias na Coordenação de Elaboração de Autógrafos do Senado Federal e do Congresso Nacional, um órgão da estrutura do Senado

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa a ferramenta Delegacia Virtual da Polícia do Senado Federal, disponibilizada por meio da Intranet da Instituição, com vistas a possibilitar o registro de ocorrências de maneira remota ao público interno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho faz uma breve descrição sobre os modelos DEA clássicos, bem como uma revisão do estado da arte de sua aplicação à agricultura. Além disso, é apresentada uma curta discussão sobre a possibilidade de integração dos resultados de DEA aos Sistemas de Informação Geográfica, como forma de apoio ao entendimento do problema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Instruções de instalação e configuração. Análise de dados do comércio exterior: o tutorial. Iniciando o discoverer e estabelecendo conexão com o servidor. Abrindo um caderno de trabalho. Escolhendo um valor do item de página. Escolhendo outra folha de trabalho de um caderno. Visualizando diferentes níveis de detalhamento. Selecionando parâmetros. Renovando uma folha de trabalho. Alterando o eixo de uma dimensão. Classificando valores. Exportando ou enviando dados de um caderno de trabalho. Fechando um caderno de trabalho. Visualizando gráficos. Ramificando um gráfico. Alterando cores e padrões de um gráfico. Copiando um gráfico para outro documento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMO - Introdução: A despesa em saúde aumentou consideravelmente nas últimas décadas na maioria dos países industrializados. Por outro lado, os indicadores de saúde melhoraram. A evidência empírica sobre a relação entre as despesas em saúde e a saúde das populações tem sido inconclusiva. Este estudo aborda a relação entre as despesas em saúde e a saúde das populações através de dados agregados para 34 países para o período 1980-2010. Metodologia: Utilizou-se o coeficiente de correlação de Pearson para avaliar a correlação entre as variáveis explicativas e os indicadores de saúde. Procedeuse ainda à realização de uma regressão multivariada com dados em painel para cada indicador de saúde utilizado como variável dependente: esperança de vida à nascença e aos 65 anos para mulheres e homens, anos de vida potencialmente perdidos para mulheres e homens e mortalidade infantil. A principal variável explicativa utilizada foi a despesa em saúde, mas consideraram-se também vários fatores de confundimento, nomeadamente a riqueza, fatores estilo de vida, e oferta de cuidados. Resultados: A despesa per capita tem impacto nos indicadores de saúde mas ao adicionarmos a variável PIB per capita deixa de ser estatisticamente significativa. Outros fatores têm um impacto significativo para quase todos os indicadores de saúde utilizados: consumo de álcool e tabaco, gordura, o número de médicos e a imunização, confirmando vários resultados da literatura. Conclusão: Os resultados vão ao encontro de alguns estudos que afirmam o impacto marginal das despesas em saúde e do progresso da medicina nos resultados em saúde desde os anos 80 nos países industrializados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Master s Thesis proposes the application of Data Envelopment Analysis DEA to evaluate economies of scale and economies of scope in the performance of service teams involved with installation of data communication circuits, based on the study of a major telecommunication company in Brazil. Data was collected from the company s Operational Performance Division. Initial analysis of a data set, including nineteen installation teams, was performed considering input oriented methods. Subsequently, the need for restrictions on weights is analyzed using the Assurance Region method, checking for the existence of zero-valued weights. The resulting returns to scale are then verified. Further analyses using the Assurance Region Constant (AR-I-C) and Variable (AR-I-V) models verify the existence of variable, rather than constant, returns to scale. Therefore, all of the final comparisons use scores obtained through the AR-I-V model. In sequence, we verify if the system has economies of scope by analyzing the behavior of the scores in terms of individual or multiple outputs. Finally, conventional results, used by the company in study to evaluate team performance, are compared to those generated using the DEA methodology. The results presented here show that DEA is a useful methodology for assessing team performance and that it may contribute to improvements on the quality of the goal setting procedure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Master s Thesis proposes the application of Data Envelopment Analysis DEA to evaluate the performance of sales teams, based on a study of their coverage areas. Data was collected from the company contracted to distribute the products in the state of Ceará. Analyses of thirteen sales coverage areas were performed considering first the output-oriented constant return to scale method (CCR-O), then this method with assurance region (AR-O-C) and finally the method of variable returns to scale with assurance region (AR-O-V). The method used in the first approach is shown to be inappropriate for this study, since it inconveniently generates zero-valued weights, allowing that an area under evaluation obtain the maximal score by not producing. Using weight restrictions, through the assurance region methods AR-O-C and AR-O-V, decreasing returns to scale are identified, meaning that the improvement in performance is not proportional to the size of the areas being analyzed. Observing data generated by the analysis, a study is carried out, aiming to design improvement goals for the inefficient areas. Complementing this study, GDP data for each area was compared with scores obtained using AR-O-V analysis. The results presented in this work show that DEA is a useful methodology for assessing sales team performance and that it may contribute to improvements on the quality of the management process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Master of Science Thesis deals with applying DEA (Data Envelopment Analysis) to the academic performance evaluation of graduate programs in Brazil, exploring it on a Mechanical and Production Engineering Program 2001-2003 data. The data used is that of the national assessment carried by CAPES, the governmental body in charge for graduate program assessment and certification. It is used the CCR output oriented DEA model, the CCR-Output with Assurance Region, and Window Analysis. The main findings are first that the CCR has the concerning problem of zero values of weights of outputs that is not appropriate in a sense that a graduate program has the higher efficiency score zeroing some output (e.g., number of academic papers published). Secondly, the Assurance Region method proved useful. Third, the Window Analysis also gave some light to the consistency of the performance in the time frame analysed. Also, the analysis results in the understanding that the Mechanics and Production Engineering should not be assessed jointly like currently applied by CAPES and rather should be assessed in its own field separately. Finally, the result of the DEA analysis showed some serious inconsistencies with the CAPES method. Graduate programs considered excellent has got low performance score and vice versa. This Thesis provides a strong argument in order to use DEA at least as a complimentary methodology for graduate program performance evaluation in Brazil

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of the present work is develop a model to simulate electrical energy networks in transient and stead states, using the software ATP (Alternative Transient Program), able to be a way to join two distinct themes, present in classical methodology planning networks: short circuit analysis and load flow theory. Beyond that, using a tool for relay simulation, this paper intend to use the new developed model to investigate the influence of transient phenomenon in operation of protection relays, and calibrate the enterprise's protections relays. For testing the model, some relays, actually, installed at COSERN were used

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The use of middleware technology in various types of systems, in order to abstract low-level details related to the distribution of application logic, is increasingly common. Among several systems that can be benefited from using these components, we highlight the distributed systems, where it is necessary to allow communications between software components located on different physical machines. An important issue related to the communication between distributed components is the provision of mechanisms for managing the quality of service. This work presents a metamodel for modeling middlewares based on components in order to provide to an application the abstraction of a communication between components involved in a data stream, regardless their location. Another feature of the metamodel is the possibility of self-adaptation related to the communication mechanism, either by updating the values of its configuration parameters, or by its replacement by another mechanism, in case of the restrictions of quality of service specified are not being guaranteed. In this respect, it is planned the monitoring of the communication state (application of techniques like feedback control loop), analyzing performance metrics related. The paradigm of Model Driven Development was used to generate the implementation of a middleware that will serve as proof of concept of the metamodel, and the configuration and reconfiguration policies related to the dynamic adaptation processes. In this sense was defined the metamodel associated to the process of a communication configuration. The MDD application also corresponds to the definition of the following transformations: the architectural model of the middleware in Java code, and the configuration model to XML