999 resultados para Grau de aplicações


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso continuado de herbicidas pertencentes a um único mecanismo de ação resulta em pressão de seleção de biótipos resistentes de plantas daninhas. No Brasil, as primeiras manifestações de resistência foram relatadas com as espécies de capim-marmelada (Brachiaria plantaginea), picão-preto (Bidens spp.) e amendoim-bravo (Euphorbia heterophylla). Tem-se verificado que, quando da ocorrência da resistência de uma planta daninha a um determinado produto, o problema se estende aos demais produtos que possuem o mesmo mecanismo de ação. Sabe-se, porém, que o grau de resistência poderá variar entre os produtos e, eventualmente, ocorrer resistência para uns e não para outros. Com o objetivo de avaliar possíveis diferenças na eficiência de produtos inibidores da enzima ACCase em biótipos resistentes de capim-marmelada, foram conduzidos dois experimentos em casa de vegetação em Londrina-PR. Os tratamentos incluíram os herbicidas sethoxydim, clethodim e tepraloxydim, em diferentes doses. No primeiro, as aplicações foram realizadas com as plantas no estádio de um a dois afilhos e, no segundo, no estádio de dois a três afilhos. Embora os três compostos químicos atuem na inibição da enzima ACCase, foi evidenciada elevada diferença no grau de resistência do capim-marmelada a esses produtos. Os resultados indicaram que o biótipo considerado resistente ao herbicida sethoxydim foi suscetível aos produtos clethodim e tepraloxydim.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Amidos nativos e modificados têm grande importância na indústria de alimentos, sendo empregados principalmente como espessantes e/ou estabilizantes. As limitações das pastas e géis obtidos a partir de amidos nativos tornaram necessário o desenvolvimento de muitos tipos de amidos modificados para aplicações alimentícias. Neste trabalho, algumas amostras de amidos modificados (n=20) disponíveis no Brasil foram recebidas de empresas produtoras e analisadas em relação a algumas características físico-químicas e propriedades tecnológicas. Um levantamento do uso de amidos modificados em alimentos também é apresentado, revelando crescente interesse pela indústria nesses ingredientes. Constatou-se que, enquanto alguns alimentos industrializados, como maioneses contêm em suas formulações amidos modificados, outros como condimento preparado de mostarda contêm apenas amido nativo. As análises físico-químicas permitiram concluir que alguns amidos modificados apresentavam teores elevados de acidez, relacionados à presença de reagentes utilizados em sua obtenção, não havendo presença de carboxilas nas suas macromoléculas. De maneira geral, os resultados de algumas propriedades tecnológicas avaliadas, tais como viscosidade aparente das pastas, resistência a congelamento/descongelamento e propriedade de expansão, estavam de acordo com a descrição dos produtos. As fontes mais observadas nas modificações foram, em ordem decrescente de importância, a mandioca, o milho ceroso e o milho regular.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A atividade de teste constitui uma fase de grande importância no processo de desenvolvimento de software, tendo como objetivo garantir um alto grau de confiabilidade nos produtos desenvolvidos. O paradigma da Orientação a Objetos (OO) surgiu com o objetivo de melhorar a qualidade bem como a produtividade no desenvolvimento de aplicações. Entretanto, apesar do aumento constante de aceitação do paradigma OO pela indústria de software, a presença de algumas de suas características torna a atividade de teste de programas neste paradigma mais complexa do que o teste de sistemas tradicionais. Entre estas características cita-se a herança, o encapsulamento, o polimorfismo e a ligação dinâmica [EIS 97] [PRE 95] [UNG 97]. Algumas técnicas estão sendo implementadas para auxiliarem a atividade de teste através do uso da tecnologia de reflexão computacional [HER 99]. Estas técnicas permitem a realização de análises de aspectos dinâmicos dos programas, sem a necessidade de instrumentar o código-fonte das aplicações que estão sendo monitoradas. Com o objetivo de auxiliar o processo de teste de programas orientados a objetos, este trabalho aborda o desenvolvimento de uma ferramenta, a qual automatiza parcialmente o teste de programas escritos em Java. A ferramenta evidencia o teste de estados fazendo uso da tecnologia de reflexão computacional. Através da especificação de asserções, feitas pelo usuário da ferramenta, na forma de invariantes de classe, pré e pós-condições de métodos, é possível verificar a integridade dos estados dos objetos durante a execução do programa em teste. A ferramenta possibilita também, armazenar a seqüência de métodos chamados pelos objetos da aplicação em teste, tornando possível ao testador, visualizar o histórico das interações entre os objetos criados no nível-base.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem por finalidade a aplicaçao de principios teóricos e experimentais de Jean Piaget ao ensino da matemática. Considerando-se as implicações educacionais da teoria, fizemos uma proposta de sistematizar uma metodologia de ensino que tem por fim a ativaçao das estruturas mentais pelo ensino da matemática. Este trabalho, em resumo, constitui uma sintese da teoria do desenvolvimento cognitivo de Piaget, e o relato de uma pesquisa experimental que teve por fim avaliar os efeitos de uma metodologia proposta para estruturas mentais na criança. Com esta finalidade, foram urilizados dois grupos de trabalho constituídos intencionalmente, um experimental e o outro de controle, ambos com 21 sujeitos, alunos da 2a série do 1o grau de escolas particulares da cidade de Goiainia (GO), de classe social média supeior e média inferior. Em ambos os grupos se realizou o pré-teste. A metodologia de ensino de fundamentação piagetiana foi utilizada para o ensino da matemática no grupo experimental, e no grupo de controle utilizou-se para o ensino da matemática uma metodologia considerada tradicional, durante o período de um semestre letivo. Após o trabalho, foi realizado o pós-teste em ambos os grupos e, um estudo comparativo dos resultados coletados permitiu verificar a eficiência da metodologia de ensino proposta e a fecundidade do ensino da matemática numa perspectiva piagetiana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho foi observado um rearranjodiotrópico do composto quiral (+)-1 o que levou na sua racemização. Verificou-se que esse processoé termicamente permitido pela simetria dos orbitais de fronteira HOMO-LUMO. Posteriormente, constatou-se que o rearranjo não era somente governado pela temperatura, mas também pelas condições reacionais, respeitada a simetria de orbitais. A partir da obtenção dos precursores quirais (−)-40 e (−)-41 através de reação de transesterificação de (±)-40 com acetato de vinila catalisada pela lípase da Cândida rugosa, realizou-se a síntese de uma série de compostos quirais bicíclicos 1,3 di-substituídos, dióis e aminoálcoois. Estes bicíclicos quirais foram testados como indutores quirais na reação de adição enantioseletiva de dietilzinco ao benzaldeído. Observou-se, no caso dos aminoálcoois, que a posição do estereocentro C-O tem uma importância fundamental no processo, determinando o grau de enantioseletividade da reação. Sintetizou-se o aminoálcool (+)-63 o qual foi utilizado na redução enantioseletiva de cetonas pró-quirais através da síntese, in situ, de sua oxazaborolidina.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este capítulo começa com integração de funções racionais, ou seja, funções da forma f(x)/g(x) e a resolução de um exemplo passo a passo. O primeiro exemplo mostra que se o grau de f(x) for maior que o grau de g(x), então a integral da função racional f(x)/g(x) se transforma numa integral de simples resolução, através da divisão de polinômios. Portanto a unidade mostra que é preciso apenas estudar integrais de funções racionais próprias, isto é, funções racionais em que o grau do numerador é menor que o grau do denominador. Isto é desenvolvido através da decomposição de frações racionais em frações parciais. Na sequência é apresentado passo a passo como fazer tal decomposição em três casos distintos. E no último tópico são detalhadas algumas aplicações das integrais definidas: área de uma região plana; média ou valor médio de uma função; volume de um sólido; área de uma superfície de revolução.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objectivo desta tese é discutir o uso das distribuições hiperbólicas generalizadas como modelo para os retornos logarítmicos de 4 activos do mercado de capitais Português. Os activos em análise são o índice Português PSI 20 e as 3 maiores empresas pertencentes ao PSI 20: PT, EDP e BCP. Os dados são constituidos pelos valores de fecho diário durante mais de 8 anos. Utilizando o software R procederemos à estimação dos parâmetros das distribuições para ajustamento aos dados empíricos. Para medir o grau de ajustamento das distribuições aos dados empíricos usamos os gráficos QQ-plots e 4 distâncias: Kolmogorov-Smirnov, Kuiper, Anderson-Darling e Fajardo-Farias-Ornelas. Os resultados obtidos permitem concluir que o melhor ajustamento é feito pela hiperbólica generalizada e em seguida a distribuição normal inversa gaussiana. Todas as distribuições desta família ajustam-se muito melhor que a distribuição normal. Por último temos uma aplicação ao cálculo do preço de derivados financeiros, nomeadamente a fórmula de uma opção de compra Europeia no modelo discutido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents an evaluative study about the effects of using a machine learning technique on the main features of a self-organizing and multiobjective genetic algorithm (GA). A typical GA can be seen as a search technique which is usually applied in problems involving no polynomial complexity. Originally, these algorithms were designed to create methods that seek acceptable solutions to problems where the global optimum is inaccessible or difficult to obtain. At first, the GAs considered only one evaluation function and a single objective optimization. Today, however, implementations that consider several optimization objectives simultaneously (multiobjective algorithms) are common, besides allowing the change of many components of the algorithm dynamically (self-organizing algorithms). At the same time, they are also common combinations of GAs with machine learning techniques to improve some of its characteristics of performance and use. In this work, a GA with a machine learning technique was analyzed and applied in a antenna design. We used a variant of bicubic interpolation technique, called 2D Spline, as machine learning technique to estimate the behavior of a dynamic fitness function, based on the knowledge obtained from a set of laboratory experiments. This fitness function is also called evaluation function and, it is responsible for determining the fitness degree of a candidate solution (individual), in relation to others in the same population. The algorithm can be applied in many areas, including in the field of telecommunications, as projects of antennas and frequency selective surfaces. In this particular work, the presented algorithm was developed to optimize the design of a microstrip antenna, usually used in wireless communication systems for application in Ultra-Wideband (UWB). The algorithm allowed the optimization of two variables of geometry antenna - the length (Ls) and width (Ws) a slit in the ground plane with respect to three objectives: radiated signal bandwidth, return loss and central frequency deviation. These two dimensions (Ws and Ls) are used as variables in three different interpolation functions, one Spline for each optimization objective, to compose a multiobjective and aggregate fitness function. The final result proposed by the algorithm was compared with the simulation program result and the measured result of a physical prototype of the antenna built in the laboratory. In the present study, the algorithm was analyzed with respect to their success degree in relation to four important characteristics of a self-organizing multiobjective GA: performance, flexibility, scalability and accuracy. At the end of the study, it was observed a time increase in algorithm execution in comparison to a common GA, due to the time required for the machine learning process. On the plus side, we notice a sensitive gain with respect to flexibility and accuracy of results, and a prosperous path that indicates directions to the algorithm to allow the optimization problems with "η" variables

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thermal insulation is used to protect the heated or cooled surfaces by the low thermal conductivity materials. The rigid ricin polyurethane foams (PURM) are used for thermal insulation and depend on the type and concentration of blowing agent. Obtaining PURM occurs by the use of polyol, silicone, catalyst and blowing agent are pre -mixed, reacting with the isocyanate. The glass is reusable, returnable and recyclable heat insulating material, whose time of heat dissipation determines the degree of relaxation of its structure; and viscosity determines the conditions for fusion, operating temperatures, annealing, etc. The production of PURM composites with waste glass powder (PV) represents economical and renewable actions of manufacturing of thermal insulating materials. Based on these aspects, the study aimed to produce and characterize the PURM composites with PV, whose the mass percentages were 5, 10, 20, 30, 40 and 50 wt%. PURM was obtained commercially, while the PV was recycled from the tailings of the stoning process of a glassmaking; when the refining process was applied to obtain micrometer particles. The PURM + PV composites were studied taking into account the standard sample of pure PURM and the influence of the percentage of PV in this PURM matrix. The results of the chemical, physical and morphological characterization were discussed taking into account the difference in the microstructural morphology of the PURM+PV composites and the pure PURM, as well the results of the physicochemical, mechanical e thermophysical tests by values obtained of density, hardness, compressive strength, specific heat, thermal conductivity and diffusivity. In general, the structure of pure PURM showed large, elongated and regular pores, while PURM+PV composites showed irregular, small and rounded pores with shapeless cells. This may have contributed to reducing their mechanical strength, especially for PURM - PV50. The hardness and density were found to have a proportional relationship with the PV content on PURM matrix. The specific heat, thermal diffusivity and thermal conductivity showed proportional relationship to each other. So, this has been realized that the increasing the PV content on PURM matrix resulted in the rise of diffusivity and thermal conductivity and the decrease of the specific heat. However, the values obtained by the PURM composites were similar the values of pure PURM, mainly the PURM-PV5 and PURM-PV10. Therefore, these composites can be applied like thermal insulator; furthermore, their use could reduce the production costs and to preserve the environment

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Research for better performance materials in biomedical applications are constants. Thus recent studies aimed at the development of new techniques for modification of surfaces. The low pressure plasma has been highlighted for its versatility and for being environmentally friendly, achieving good results in the modification of physic chemical properties of materials. However, it is requires an expensive vacuum system and cannot able to generate superficial changes in specific regions. Furthermore, it is limits their use in polymeric materials and sensitive terms due to high process temperatures. Therefore, new techniques capable of generating cold plasma at atmospheric pressure (APPJ) were created. In order to perform surface treatments on biomaterials in specific regions was built a prototype capable of generating a cold plasma jet. The prototype plasma generator consists of a high voltage source, a support arm, sample port and a nozzle through which the ionized argon. The device was formed to a dielectric tube and two electrodes. This work was varied some parameters such as position between electrodes, voltage and electrical frequency to verify the behavior of glow discharges. The disc of titanium was polished and there was a surface modification. The power consumed, length, intensity and surface modifications of titanium were analyzed. The energy consumed during the discharges was observed by the Lissajous figure method. To check the length of the jets was realized with Image Pro Plus software. The modifications of the titanium surfaces were observed by optical microscopy (OM ) and atomic force microscopy (AFM ). The study showed that variations of the parameters such as voltage, frequency and geometric position between the electrodes influence the formation of the plasma jet. It was concluded that the plasma jet near room temperature and atmospheric pressure was able to cause modifications in titanium surface

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of smart card applications requires a high level of reliability. Formal methods provide means for this reliability to be achieved. The BSmart method and tool contribute to the development of smart card applications with the support of the B method, generating Java Card code from B specifications. For the development with BSmart to be effectively rigorous without overloading the user it is important to have a library of reusable components built in B. The goal of KitSmart is to provide this support. A first research about the composition of this library was a graduation work from Universidade Federal do Rio Grande do Norte, made by Thiago Dutra in 2006. This first version of the kit resulted in a specification of Java Card primitive types byte, short and boolean in B and the creation of reusable components for application development. This work provides an improvement of KitSmart with the addition of API Java Card specification made in B and a guide for the creation of new components. The API Java Card in B, besides being available to be used for development of applications, is also useful as a documentation of each API class. The reusable components correspond to modules to manipulate specific structures, such as date and time. These structures are not available for B or Java Card. These components for Java Card are generated from specifications formally verified in B. The guide contains quick reference on how to specify some structures and how some situations were adapted from object-orientation to the B Method. This work was evaluated through a case study made through the BSmart tool, that makes use of the KitSmart library. In this case study, it is possible to see the contribution of the components in a B specification. This kit should be useful for B method users and Java Card application developers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The increasing complexity of integrated circuits has boosted the development of communications architectures like Networks-on-Chip (NoCs), as an architecture; alternative for interconnection of Systems-on-Chip (SoC). Networks-on-Chip complain for component reuse, parallelism and scalability, enhancing reusability in projects of dedicated applications. In the literature, lots of proposals have been made, suggesting different configurations for networks-on-chip architectures. Among all networks-on-chip considered, the architecture of IPNoSys is a non conventional one, since it allows the execution of operations, while the communication process is performed. This study aims to evaluate the execution of data-flow based applications on IPNoSys, focusing on their adaptation against the design constraints. Data-flow based applications are characterized by the flowing of continuous stream of data, on which operations are executed. We expect that these type of applications can be improved when running on IPNoSys, because they have a programming model similar to the execution model of this network. By observing the behavior of these applications when running on IPNoSys, were performed changes in the execution model of the network IPNoSys, allowing the implementation of an instruction level parallelism. For these purposes, analysis of the implementations of dataflow applications were performed and compared