989 resultados para Tempo de execução
Resumo:
The Artificial Neural Networks (ANN), which is one of the branches of Artificial Intelligence (AI), are being employed as a solution to many complex problems existing in several areas. To solve these problems, it is essential that its implementation is done in hardware. Among the strategies to be adopted and met during the design phase and implementation of RNAs in hardware, connections between neurons are the ones that need more attention. Recently, are RNAs implemented both in application specific integrated circuits's (Application Specific Integrated Circuits - ASIC) and in integrated circuits configured by the user, like the Field Programmable Gate Array (FPGA), which have the ability to be partially rewritten, at runtime, forming thus a system Partially Reconfigurable (SPR), the use of which provides several advantages, such as flexibility in implementation and cost reduction. It has been noted a considerable increase in the use of FPGAs for implementing ANNs. Given the above, it is proposed to implement an array of reconfigurable neurons for topologies Description of artificial neural network multilayer perceptrons (MLPs) in FPGA, in order to encourage feedback and reuse of neural processors (perceptrons) used in the same area of the circuit. It is further proposed, a communication network capable of performing the reuse of artificial neurons. The architecture of the proposed system will configure various topologies MLPs networks through partial reconfiguration of the FPGA. To allow this flexibility RNAs settings, a set of digital components (datapath), and a controller were developed to execute instructions that define each topology for MLP neural network.
Resumo:
Cryptography is the main form to obtain security in any network. Even in networks with great energy consumption restrictions, processing and memory limitations, as the Wireless Sensors Networks (WSN), this is no different. Aiming to improve the cryptography performance, security and the lifetime of these networks, we propose a new cryptographic algorithm developed through the Genetic Programming (GP) techniques. For the development of the cryptographic algorithm’s fitness criteria, established by the genetic GP, nine new cryptographic algorithms were tested: AES, Blowfish, DES, RC6, Skipjack, Twofish, T-DES, XTEA and XXTEA. Starting from these tests, fitness functions was build taking into account the execution time, occupied memory space, maximum deviation, irregular deviation and correlation coefficient. After obtaining the genetic GP, the CRYSEED and CRYSEED2 was created, algorithms for the 8-bits devices, optimized for WSNs, i.e., with low complexity, few memory consumption and good security for sensing and instrumentation applications.
Resumo:
Cryptography is the main form to obtain security in any network. Even in networks with great energy consumption restrictions, processing and memory limitations, as the Wireless Sensors Networks (WSN), this is no different. Aiming to improve the cryptography performance, security and the lifetime of these networks, we propose a new cryptographic algorithm developed through the Genetic Programming (GP) techniques. For the development of the cryptographic algorithm’s fitness criteria, established by the genetic GP, nine new cryptographic algorithms were tested: AES, Blowfish, DES, RC6, Skipjack, Twofish, T-DES, XTEA and XXTEA. Starting from these tests, fitness functions was build taking into account the execution time, occupied memory space, maximum deviation, irregular deviation and correlation coefficient. After obtaining the genetic GP, the CRYSEED and CRYSEED2 was created, algorithms for the 8-bits devices, optimized for WSNs, i.e., with low complexity, few memory consumption and good security for sensing and instrumentation applications.
Resumo:
The objective of this work is to use algorithms known as Boltzmann Machine to rebuild and classify patterns as images. This algorithm has a similar structure to that of an Artificial Neural Network but network nodes have stochastic and probabilistic decisions. This work presents the theoretical framework of the main Artificial Neural Networks, General Boltzmann Machine algorithm and a variation of this algorithm known as Restricted Boltzmann Machine. Computer simulations are performed comparing algorithms Artificial Neural Network Backpropagation with these algorithms Boltzmann General Machine and Machine Restricted Boltzmann. Through computer simulations are analyzed executions times of the different described algorithms and bit hit percentage of trained patterns that are later reconstructed. Finally, they used binary images with and without noise in training Restricted Boltzmann Machine algorithm, these images are reconstructed and classified according to the bit hit percentage in the reconstruction of the images. The Boltzmann machine algorithms were able to classify patterns trained and showed excellent results in the reconstruction of the standards code faster runtime and thus can be used in applications such as image recognition.
Resumo:
Welding is one of the most employed process for joining steel pipes. Although, manual welding is still the most used one, mechanized version and even automatized one have increased its demand. Thus, this work deals with girth welding of API 5L X65 pipes with 8” of nominal diameter and 8.0 mm thickness, beveled with V-30º narrow gap. Torch is moved by a bug carrier (mechanized welding) and further the parameters are controlled as a function of angular position (automatized welding). Welding parameters are presented for filling the joint with two-passes (root and filling/capping passes). Parameters for the root pass were extracted from previous author´s work with weldments carried out in plates, but validated in this work for pipe welding. GMAW processes were assessed with short-circuit metal transfer in both conventional and derivative modes using different technologies (RMD, STT and CMT). After the parameter determination, mechanical testing was performed for welding qualification (uniaxial tension, face and root bending, nick break, Charpy V-notch impact, microhardness and macrograph). The initially obtained results for RMD and CMT were acceptable for all testing and, in a second moment, also for the STT. However, weld beads carried out by using the conventional process failed and revealed the existence of lack of fusion, which required further parametrization. Thus, a Parameter-Variation System for Girth Welding (SVP) was designed and built to allow varying the welding parameters as a function of angular position by using an inclinometer. The parameters were set for each of the three angular positions (flat, vertical downhill and overhead). By using such equipment and approach, the conventional process with parameter variation allowed reducing the welding time for joint accomplishment of the order of 38% for the root pass and 30% for the filling/capping pass.
Resumo:
Num mercado globalizado e extremamente competitivo, a escolha de uma metodologia de gestão é determinante para ditar o sucesso ou fracasso de uma empresa. O investimento em capital humano e tecnológico deve ser acompanhado por uma gestão de processos, rápida e eficaz, que direcione a organização para uma redução dos custos de um produto ou serviço. Nos últimos anos, vários autores têm demonstrado que uma das estratégias utilizadas para atingir este objetivo tem sido a aplicação da metodologia Lean Management, que ganhou reputação pelos resultados positivos alcançados. Este projeto foi elaborado em contexto industrial, no departamento de projeto da empresa Tecnifreza S.A., e teve como principal objetivo demonstrar que é possível obter uma diminuição do tempo de execução do projeto de um molde (lead time), através da aplicação dos princípios Lean Management. A metodologia utilizada assentou no registo detalhado de atividades predefinidas, ocorridas durante o projeto, baseada numa amostra constituída por nove moldes que melhor representam a realidade/tipologia produtiva da empresa. Após a análise dos dados obtidos, verifica-se que o desvio médio é de 91,7% entre o tempo de projeto inicialmente previsto pela direção e o tempo efetivo registado. Identificaram-se ainda as principais atividades que não acrescentaram valor aos projetos em estudo. Estas atividades, consideradas como desperdícios, perfazem no seu conjunto 34,6% do tempo total. Foram então sugeridas propostas de melhoria, de modo a reduzir ou eliminar estes tempos. De forma a avaliar o impacto destas propostas, foram realizadas estimativas tendo por base os dados de um molde tipo. Os resultados obtidos demonstram que, com a implementação das propostas de melhoria, são alcançados ganhos significativos na redução do lead time do projeto e consequentemente no tempo total de fabrico do molde. A antecipação na entrega dos desenhos 3D para a fabricação revela-se bastante evidente, existindo ainda um aumento no nivelamento da entrega de projetos para a fabricação. Face aos resultados apresentados verifica-se que a implementação de princípios Lean no departamento de projeto mostra-se potencialmente vantajosa, em particular com a introdução de células de trabalho e a realização do ciclo PDCA.
Resumo:
Com um aumento significativo dos dados nos setores empresariais, urge a necessidade de criar formas de facilitar o seu tratamento para um ganho do tempo na execução das atividades, garantindo uma maior eficiência dos sistemas e também proporcionando a maximização do lucro às empresas, quando for esse o caso. O sucesso de uma empresa depende bastante dos seus recursos humanos e estes, constituem o seu “instrumento” mais importante. É (ou seria) das pessoas que a empresa define ações estratégicas, constituindo ganhos de diversas naturezas (de conhecimento, de marca, económicas ou financeiras). O objetivo principal desta dissertação é permitir que a instituição universitária ISCED – Cabinda se adapte ao potencial digital pelo recurso às tecnologias de informação e comunicação, no contexto da sua gestão de Recursos Humanos. Em consequência, a instituição beneficiará com a maior facilidade e rapidez do acesso à informação e a facilidade na atualização dos dados do sistema. Uma vez automatizado, o sistema poderá facilitar o acesso aos dados a fim de responder a uma determinada necessidade que possa existir, independentemente de estar prevista ou não (tornando o sistema mais flexível e adaptável a novas realidades). Com uma Base de dados, far-se-á o cadastro dos dados dos funcionários da instituição fazendo assim evoluir a gestão de Recursos Humanos e proporcionando a busca de informação relativa a um determinado funcionário de uma forma fácil, rápida, precisa, fiável e coerente. Recorrendo ao desenvolvimento de uma aplicação móvel baseada na arquitetura cliente-servidor, as operações de consultas (adicionar, modificar, eliminar), ficam facilitadas e permitem ainda uma maior exploração de dados. A apresentação de uma aplicação móvel para a consulta no âmbito da gestão de Recursos Humanos é complementada com uma agenda de trabalhos a serem desenvolvidos para garantir a proposta de um sistema de gestão de Recursos Humanos para o ISCED.
Resumo:
A constante evolução da tecnologia disponibilizou, atualmente, ferramentas computacionais que eram apenas expectativas há 10 anos atrás. O aumento do potencial computacional aplicado a modelos numéricos que simulam a atmosfera permitiu ampliar o estudo de fenômenos atmosféricos, através do uso de ferramentas de computação de alto desempenho. O trabalho propôs o desenvolvimento de algoritmos com base em arquiteturas SIMT e aplicação de técnicas de paralelismo com uso da ferramenta OpenACC para processamento de dados de previsão numérica do modelo Weather Research and Forecast. Esta proposta tem forte conotação interdisciplinar, buscando a interação entre as áreas de modelagem atmosférica e computação científica. Foram testadas a influência da computação do cálculo de microfísica de nuvens na degradação temporal do modelo. Como a entrada de dados para execução na GPU não era suficientemente grande, o tempo necessário para transferir dados da CPU para a GPU foi maior do que a execução da computação na CPU. Outro fator determinante foi a adição de código CUDA dentro de um contexto MPI, causando assim condições de disputa de recursos entre os processadores, mais uma vez degradando o tempo de execução. A proposta do uso de diretivas para aplicar computação de alto desempenho em uma estrutura CUDA parece muito promissora, mas ainda precisa ser utilizada com muita cautela a fim de produzir bons resultados. A construção de um híbrido MPI + CUDA foi testada, mas os resultados não foram conclusivos.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016.
Resumo:
Dissertação de Mestrado, Engenharia Informática, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015
Resumo:
Pretende-se desenvolver um Data Warehouse para um grupo empresarial constituído por quatro empresas, tendo como objectivo primordial a consolidação de informação. A consolidação da informação é de extrema utilidade, uma vez que as empresas podem ter dados comuns, tais como, produtos ou clientes. O principal objectivo dos sistemas analíticos é permitir analisar os dados dos sistemas transacionais da organização, fazendo com que os utilizadores que nada percebem destes sistemas consigam ter apoio nas tomadas decisão de uma forma simples e eficaz. A utilização do Data Warehouse é útil no apoio a decisões, uma vez que torna os utilizadores autónomos na realização de análises. Os utilizadores deixam de estar dependentes de especialistas em informática para efectuar as suas consultas e passam a ser eles próprios a realizá-las. Por conseguinte, o tempo de execução de uma consulta através do Data Warehouse é de poucos segundos, ao contrário das consultas criadas anteriormente pelos especialistas que por vezes demoravam horas a ser executadas. __ ABSTRACT: lt is intended to develop a Data Warehouse for a business related group of four companies, having by main goal the information consolidation. This information consolidation is of extreme usefulness since the companies can have common data, such as products or customers. The main goal of the analytical systems is to allow analyze data from the organization transactional systems, making that the users that do not understand anything of these systems may have support in a simple and effective way in every process of taking decisions. Using the Data Warehouse is useful to support decisions, once it will allow users to become autonomous in carrying out analysis. Users will no longer depend on computer experts to make their own queries and they can do it themselves. Therefore, the time of a query through the Data Warehouse takes only a few seconds, unlike the earlier queries created previously by experts that sometimes took hours to run.
Resumo:
O tabagismo é hoje um grande problema de saúde pública, sendo a principal causa de doenças evitáveis no mundo. É um dos principais fatores de risco para doenças como: Infarto agudo do miocárdio, acidente vascular encefálico, câncer de pulmão e outros. Ao atuar como médico da UBS (Unidade Básica de Saúde) Jardim Imperial, localizada no município de Goianira-GO, que conta com 1.200 famílias cadastradas, percebi a grande prevalência que o tabagismo tem na população local. Frente a esse quadro optamos por iniciar um projeto que objetivasse a cessação do hábito de fumar em um grupo de tabagista com o auxílio de uma equipe multiprofissional. Esse projeto foi posto em prática, tendo como resultado uma boa parceria entre os profissionais que dele participaram, mas quanto ao abandono do hábito de fumar, não tivemos um resultado esperado, ficando como prerrogativas o baixo nível escolar da amostra, o tempo de execução do trabalho e a baixa assiduidade do grupo selecionando.
Resumo:
Os ensaios acelerados de vida são testes que se realizam com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um dado bem, provocando-lhe a ocorrência de um dado modo de falha específico num espaço de tempo mais curto do que aquele em que normalmente este evento ocorreria. É através dos ensaios acelerados, e de modelos analíticos específicos, que se torna então possível prever as falhas antes de estas ocorrerem, potenciando atempadamente possíveis alterações de projecto ou concepção, antes do bem entrar no mercado. Este tipo de ensaios possibilita, por exemplo ao fabricante, uma economia de tempo na determinação da informação de dados de vida (considerados relevantes) que deverá acompanhar o produto na sua comercialização. Para uma melhor compreensão da temática, abordam-se no trabalho duas áreas essenciais, nomeadamente: O conceito de Fiabilidade e o conceito de Ensaios Acelerados de Vida. Ao longo do documento podem-se analisar os modelos mais utilizados em Ensaios Acelerados, como o Modelo de Arrhenius, o Modelo de Eyring, o Modelo de Potência Inversa e o Modelo de Temperatura e Humidade. Também são apresentadas algumas distribuições importantes relacionadas com esses modelos, como a Distribuição Normal, a Distribuição Lognormal, a Distribuição Exponencial e a Distribuição de Weibull. Para verificação da metodologia, realizou-se uma aplicação experimental, tendo por base a normalização existente e os parâmetros seguidos pelo fabricante do componente estudado. Para tratamento dos dados resultantes dos ensaios acelerados utiliza-se o programa ALTA 7.0 PRO, que de uma forma expedita permite extrapolar das condições de ensaio para uma utilização normal, e assim determinar os parâmetros fiabilísticos correspondentes ao bem. De salientar que este ‘’software’’ pode trabalhar com um ou mais níveis de aceleração, como por exemplo conjugar a influência da temperatura com a humidade. O conhecimento dos modelos usados nesta área permite compreender a metodologia de ensaios acelerados e o comportamento dos componentes. Os dados demonstram uma alta precisão dos resultados, num período de tempo reduzido.
Resumo:
Este últimos anos aumentaram as dificuldades quer relativamente à execução correcta e em tempo da legislação comunitária do ambiente, quer na prática, a sua aplicação adequada. Esta situação reflecte-se no número de queixas que a Comissão recebeu em cada ano e número de processos de infracção por ela intentados. Tal como nos anos precedentes o sector do Ambiente representou no último ano mais de 1/3 dos casos de infracção analisados pela Comissão. A Comissão recorreu ao Tribunal de Justiça intentando 65 processos contra os Estados Membros e enviou 137 pareceres fundamentados nos termos do art.226 do Tratado. O número de novas queixas, as quais se referem sobretudo à “má aplicação” presumida do direito comunitário do ambiente é muito elevado, desde 1996, data em que a Comissão publicou a sua comunicação intitulada “Execução do Direito Comunitário do Ambiente”. Só em 2002 registaram-se 555 novas queixas por violação do direito comunitário do ambiente. Um número considerável das queixas em questão deram também origem a questões escritas e petições ao Parlamento Europeu. O processo previsto no art. 228 que pode levar a sanções pecuniárias revelou-se eficaz em última instância para obrigar os Estados Membros a tomar as medidas necessária à execução dos Acórdãos do Tribunal de Justiça. Em 2002 a Comissão por exemplo dirigiu aos Estados Membros 17 notificações de incumprimento, pareceres fundamentados nos termos do art. 228. O objectivo é sempre melhorar a aplicação do direito comunitário do ambiente e é evidente que as queixas e o Tribunal não são suficientes pra tal. Tem de existir uma maior colaboração entre os Estados Membros e a Comissão durante as etapas do ciclo de execução, a elaboração de novos métodos de trabalho e a implementação duma consciência cívica ambiental. E isto é especialmente importante na perspectiva do alargamento, se se pretender como pretende, que os novos Estados Membros transponham e executem correctamente a “Legislação Comunitária” nos prazos acordados.
Resumo:
O presente texto é um contributo para a compreensão dos processos de concepção e execução duma política pública de educação conduzida pelo Governo e enquadra-se no campo mais vasto de uma investigação em curso. É apresentado e problematizado um “modelo” de implementação do conceito de Escola a Tempo Inteiro (ETI), a partir das representações dos princípios que lhe estão subjacentes (decorrentes das retóricas do discurso oficial) confrontando-o com as representações de outros actores que marcam as suas posições e explicitam as suas lógicas de argumentação reportadas a outros referenciais.