996 resultados para Teste em sistemas de software
Resumo:
Alongside the advances of technologies, embedded systems are increasingly present in our everyday. Due to increasing demand for functionalities, many tasks are split among processors, requiring more efficient communication architectures, such as networks on chip (NoC). The NoCs are structures that have routers with channel point-to-point interconnect the cores of system on chip (SoC), providing communication. There are several networks on chip in the literature, each with its specific characteristics. Among these, for this work was chosen the Integrated Processing System NoC (IPNoSyS) as a network on chip with different characteristics compared to general NoCs, because their routing components also accumulate processing function, ie, units have functional able to execute instructions. With this new model, packets are processed and routed by the router architecture. This work aims at improving the performance of applications that have repetition, since these applications spend more time in their execution, which occurs through repeated execution of his instructions. Thus, this work proposes to optimize the runtime of these structures by employing a technique of instruction-level parallelism, in order to optimize the resources offered by the architecture. The applications are tested on a dedicated simulator and the results compared with the original version of the architecture, which in turn, implements only packet level parallelism
Resumo:
The Hiker Dice was a game recently proposed in a software designed by Mara Kuzmich and Leonardo Goldbarg. In the game a dice is responsible for building a trail on an n x m board. As the dice waits upon a cell on the board, it prints the side that touches the surface. The game shows the Hamiltonian Path Problem Simple Maximum Hiker Dice (Hidi-CHS) in trays Compact Nth , this problem is then characterized by looking for a Hamiltonian Path that maximize the sum of marked sides on the board. The research now related, models the problem through Graphs, and proposes two classes of solution algorithms. The first class, belonging to the exact algorithms, is formed by a backtracking algorithm planed with a return through logical rules and limiting the best found solution. The second class of algorithms is composed by metaheuristics type Evolutionary Computing, Local Ramdomized search and GRASP (Greed Randomized Adaptative Search). Three specific operators for the algorithms were created as follows: restructuring, recombination with two solutions and random greedy constructive.The exact algorithm was teste on 4x4 to 8x8 boards exhausting the possibility of higher computational treatment of cases due to the explosion in processing time. The heuristics algorithms were tested on 5x5 to 14x14 boards. According to the applied methodology for evaluation, the results acheived by the heuristics algorithms suggests a better performance for the GRASP algorithm
Resumo:
This work presents an User Interface (UI) prototypes generation process to the softwares that has a Web browser as a plataform. This process uses UI components more complex than HTML elements. To described this components more complex this work suggest to use the XICL (eXtensinble User Interface Components Language). XICL is a language, based on XML syntax, to describe UI Components and IUs. XICL promotes extensibility and reusability in the User Interface development process. We have developed two compiler. The first one compiles IMML (Interactive Message Modeling Language) code and generates XICL code. The second one compiles XICL code and generates DHTML code
Resumo:
INTRODUÇÃO: O ensaio do cometa ou técnica da eletroforese de células isoladas é largamente empregado para avaliação de danos e reparo do DNA em células individuais. O material pode ser corado por técnicas de fluorescência ou por sal de prata. Este último apresenta vantagens técnicas, como o tipo de microscópio utilizado e a possibilidade de armazenamento das lâminas. A análise dos cometas pode ser feita de modo visual, porém há a desvantagem da subjetividade dos resultados, que pode ser minimizada por análise digital automatizada. OBJETIVOS: Desenvolvimento e validação de método de análise digital de cometas corados por sal de prata. MÉTODOS: Cinquenta cometas foram fotografados de maneira padronizada e impressos em papel. Além de medidas manualmente, essas imagens foram classificadas em cinco categorias por três avaliadores, antes e depois de pré-processadas automaticamente pelo software ImageJ 1.38x. As estimativas geradas pelos avaliadores foram comparadas quanto sua correlação e reprodutibilidade. em seguida, foram desenvolvidos algoritmos de análise digital das medidas, com base em filtros estatísticos de mediana e de mínimo. Os valores obtidos foram comparados com os estimados manual e visualmente após o pré-processamento. RESULTADOS: As medidas manuais das imagens pré-processadas apresentaram maior correlação intraclasse do que as imagens preliminares. Os parâmetros automatizados apresentaram alta correlação com as medidas manuais pré-processadas, sugerindo que este sistema aumenta a objetividade da análise, podendo ser utilizado na estimativa dos parâmetros dos cometas. CONCLUSÃO: A presente análise digital proposta para o teste do cometa corado pela prata mostrou-se factível e de melhor reprodutibilidade que a análise visual.
Resumo:
The aim of this work is to provide a text to support interested in the main systems of amortization of the current market: Constant Amortization System (SAC) and French System, also known as Table Price. We will use spreadsheets to facilitate calculations involving handling exponential and decimal. Based on [12], we show that the parcels of the SAC become smaller than the French system after a certain period. Further then that, we did a comparison to show that the total amount paid by SAC is less than the French System
Resumo:
Nowadays, there are many aspect-oriented middleware implementations that take advantage of the modularity provided by the aspect oriented paradigm. Although the works always present an assessment of the middleware according to some quality attribute, there is not a specific set of metrics to assess them in a comprehensive way, following various quality attributes. This work aims to propose a suite of metrics for the assessment of aspect-oriented middleware systems at different development stages: design, refactoring, implementation and runtime. The work presents the metrics and how they are applied at each development stage. The suite is composed of metrics associated to static properties (modularity, maintainability, reusability, exibility, complexity, stability, and size) and dynamic properties (performance and memory consumption). Such metrics are based on existing assessment approaches of object-oriented and aspect-oriented systems. The proposed metrics are used in the context of OiL (Orb in Lua), a middleware based on CORBA and implemented in Lua, and AO-OiL, the refactoring of OIL that follows a reference architecture for aspect-oriented middleware systems. The case study performed in OiL and AO-OiL is a system for monitoring of oil wells. This work also presents the CoMeTA-Lua tool to automate the collection of coupling and size metrics in Lua source code
Resumo:
Os sensores inteligentes são dispositivos que se diferenciam dos sensores comuns por apresentar capacidade de processamento sobre os dados monitorados. Eles tipicamente são compostos por uma fonte de alimentação, transdutores (sensores e atuadores), memória, processador e transceptor. De acordo com o padrão IEEE 1451 um sensor inteligente pode ser dividido em módulos TIM e NCAP que devem se comunicar através de uma interface padronizada chamada TII. O módulo NCAP é a parte do sensor inteligente que comporta o processador. Portanto, ele é o responsável por atribuir a característica de inteligência ao sensor. Existem várias abordagens que podem ser utilizadas para o desenvolvimento desse módulo, dentre elas se destacam aquelas que utilizam microcontroladores de baixo custo e/ou FPGA. Este trabalho aborda o desenvolvimento de uma arquitetura hardware/software para um módulo NCAP segundo o padrão IEEE 1451.1. A infra-estrutura de hardware é composta por um driver de interface RS-232, uma memória RAM de 512kB, uma interface TII, o processador embarcado NIOS II e um simulador do módulo TIM. Para integração dos componentes de hardware é utilizada ferramenta de integração automática SOPC Builder. A infra-estrutura de software é composta pelo padrão IEEE 1451.1 e pela aplicação especí ca do NCAP que simula o monitoramento de pressão e temperatura em poços de petróleo com o objetivo de detectar vazamento. O módulo proposto é embarcado em uma FPGA e para a sua prototipação é usada a placa DE2 da Altera que contém a FPGA Cyclone II EP2C35F672C6. O processador embarcado NIOS II é utilizado para dar suporte à infra-estrutura de software do NCAP que é desenvolvido na linguagem C e se baseia no padrão IEEE 1451.1. A descrição do comportamento da infra-estrutura de hardware é feita utilizando a linguagem VHDL
Resumo:
The current work was developed on the dune systems of the Parque das Dunas and Barreira do Inferno. These places are located in the cities of Natal and Parnamirim (RN, Brazil), respectively. This project has the purpose of developing the deterministic model on a specific blowout at Parque das Dunas, based in the geophysical interpretations of the lines gotten with the Ground Penetration Radar and the planialtimetric acquisitions of the topographical surface of the land. Also analyses of the vulnerability/susceptibility of these dune systems had been done in relation to the human pressures. To develop its deterministic model, it is necessary to acquire inner and outer geometries of the cited blowout. In order to depict inner geometries underneath the surface are used the GPR observing the altimetric control for topographical correction of the GPR lines. As for the outer geometries, the geodesic GPS gives us the planialtimetric points (x, y and z points) with milimetric precision, resulting in high-resolution surfaces. Using interpolation methods of the planialtimetric points was possible create Digital Elevations Models (DEM´s) of these surfaces. As a result, 1,161.4 meters of GPR lines were acquired on the blowout at the Parque das Dunas and 3,735.27 meters on the blowout at the Barreira do Inferno. These lines had been acquired with a 200 MHz antenna, except the 7 and 8 lines, for which we had been used a 100 MHz antenna. The gotten data had been processed and interpreted, being possible to identify boundary surfaces of first, second and third order. The first order boundary surface is related with the contact of the rocks of the Barreiras Group with the aeolian deposits. These deposits had been divided in two groups (Group 1 and Group 2) which are related with the geometry of stratum and the dip of its stratifications. Group 1 presented stratum of sigmoidal and irregular geometries and involved bodies where the reflectors had presented dips that had varied of 20 to the 28 degrees for the Parque das Dunas blowout and of 22 to the 29 degrees for the Barreira do Inferno blowout. Usually, it was limited in the base for the first order surface and in the top for the second order surface. Group 2 presented stratum of trough, wedge or lens geometries, limited in the base for the second order vi surface, where the corresponding deposits had more shown smoothed reflectors or with dips of low angle. The Deterministic and Digital Elevation Models had been developed from the integration and interpretation of the 2D data with the GOCAD® program. In Digital Elevations Models it was possible to see, for the localities, corridor or trough-shaped blowouts. In Deterministic Model it was possible to see first and second order boundary surfaces. For the vulnerability/susceptibility of the dune systems it was applied the methodology proposal by Boderè al (1991); however the same one did not show adequate because it evaluates actual coastal dunes. Actual coastal dunes are dunes that are presented in balance with the current environmental conditions. Therefore, a new methodology was proposal which characterizes the supplying and activity sedimentary, as well as the human pressures. For the methodology developed in this work, both the localities had presented a good management. The Parque das Dunas was characterized as a relic dune system and the Barreira do Inferno was characterized as a palimpsestic dune system. Also two Thematic Maps had been elaborated for the environmental characterization of the studied dune systems, with software ArcGis 8.3, and its respective data bases
Resumo:
OBJETIVO: avaliar o Índice de Remanescente Adesivo (IRA) em dentes bovinos após a descolagem de braquetes com e sem tratamento na base. METODOLOGIA: foram utilizados três sistemas de colagem ortodôntica para os dois padrões de base. Os dentes bovinos foram divididos em seis grupos de 40, de acordo com a base do braquete e o sistema de colagem. Vinte e quatro horas após a colagem foram realizados os testes de compressão em uma máquina de ensaios. A avaliação do IRA foi realizada em um estereomicroscópio por três examinadores calibrados. Foi utilizado o teste não paramétrico de Kruskal-Wallis, seguido do método de Dunn, para fazer as comparações múltiplas entre todos os grupos. RESULTADOS E CONCLUSÕES: observou-se que o tratamento das bases dos braquetes com óxido de alumínio não foi determinante para o aumento da adesividade entre o braquete e o adesivo. O grupo em que se utilizou braquetes com tratamento na base e adesivo TXT (3M-Unitek) + Transbond Plus SEP (3M-Unitek) apresentou a maior parte das fraturas na interface dente-adesivo (escore 4).
Resumo:
Com a finalidade de quantificar o desempenho dos sistemas de debulhamento e limpeza da colhedora Penha CLM-350,, estudou-se as perdas percentuais era grão de milho, ocorridos na saída de palhas, bem como a porcentagem de impurezas, presente no milho ensacado. Tomando-se como 100% os grãos de milho colhidos pelo sistema espigador, determinou-se o valor percentual perdido pelos sistemas de debulhamento e limpeza, bem como a porcentagem de impurezas presente nos grãos de milho ensacado, nos diversos tratamentos estudados. O teor médio de umidade foi de 15,78% (b.u.). Os tratamentos correspondentes ao sistema de debulhamento e limpeza são as velocidades periféricas do debulhador ou as rotações do aspirador em faces da configuração geométrica da máquina. Os resultados obtidos foram estudados através da análise de variância, empregando-se os testes F, aos níveis de 1% e 5% de probabilidade e o teste Tukey, para a comparação estatística entre as médias. A análise estatística para verificar a influência da rotação do aspirador, era relação a porcentagem de grãos de milho perdidos na saída de palhas, mostrou diferenças altamente significativas, podendo-se admitir uma relação direta entre os dois parâmetros nas condições do ensaio. Com relação a rotação do aspirador e a porcentagem de impurezas, presentes nos grãos de milho ensacados, os testes das médias revelaram significância entre os tratamento D (1241,7 rpm) e E (820 rpm) sendo que este último apresentou a maior média. Uma análise mais acurada dos resultados sugere que a porcentagem de impurezas, estaria mais na dependência das relações de fluxo através da colhedora, do que propriamente do regime do aspirador.
A utilização de diferentes configurações de molas T para a obtenção de sistemas de forças otimizados
Resumo:
OBJETIVO: determinar as características mecânicas de molas T e T com helicóides, quando da incorporação de variações na liga metálica (aço inoxidável e beta-titânio), na intensidade de dobras de pré-ativação (0º e 40º/180º) e na secção transversal do fio utilizado para a construção destas molas (0,017 x 0,025 e 0,019 x 0,025). METODOLOGIA: foram submetidas ao ensaio mecânico 80 molas para fechamento de espaços, sendo estas centralizadas em um espaço de 21mm. As magnitudes de força horizontal, proporção momento/força e relação carga/deflexão produzidas pelos corpos de prova foram quantificadas utilizando-se um transdutor de momentos acoplado ao módulo indicador digital para extensiometria e adaptado a uma máquina universal de ensaios Instron. As molas foram submetidas a uma ativação total de 5mm, sendo registrados os valores a cada 1mm de ativação. No tratamento estatístico dos dados obtidos, foi realizada a análise de variância, sendo esta complementada pelo teste de comparações múltiplas de Tukey, considerando o nível de significância de 5%. RESULTADOS E CONCLUSÕES: os resultados demonstraram que, de maneira geral, as molas T com helicóides produziram menores magnitudes de força horizontal e relação carga/deflexão do que as molas T. Na presença de pré-ativação, as molas produziram altas proporções momento/força, enquanto, na ausência de dobras de pré-ativação, as mesmas geraram baixas proporções momento/força. Dentre todas as variáveis analisadas, aquela que apresentou uma maior influência na força horizontal e na relação carga/deflexão produzidas pelas molas foi a liga metálica. Já a proporção momento/força mostrou ser influenciada em maior grau pela pré-ativação das molas de fechamento.
Resumo:
The mapping of the land use, vegetation and environmental impacts using remote sensing ana geoprocessmg allow detection, spatial representation and quantification of the alterations caused by the human action on the nature, contributing to the monitoring and planning of those activities that may cause damages to the environment. This study apply methodologies based on digital processing of orbital images for the mapping of the land use, vegetation and anthropic activities that cause impacts in the environment. It was considered a test area in the district of Assistência and surroundings, in Rio Claro (SP) region. The methodology proposed was checked through the crossing of maps in the software GIS - Idrisi. These maps either obtained with conventional interpretation of aerial photos of 1995, digitized in the software CAD Overlay and geo-referenced in the AutoCAD Map, or with the application of digital classification systems on SPOT-XS and PAN orbital images of 1995, followed by field observations. The crossing of conventional and digital maps of a same area with the CIS allows to verify the overall results obtained through the computational handling of orbital images. With the use of digital processing techniques, specially multiespectral classification, it is possible to detect automatically and visually the impacts related to the mineral extraction, as well as to survey the land use, vegetation and environmental impacts.
Resumo:
Incluye Bibliografía
Resumo:
Includes bibliography
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)