872 resultados para High-Performance Computing
Resumo:
In order to maximize their productivity, inter-disciplinary multi-occupation teams of professionals need to maximize inter-occupational cooperation in team decision making. Cooperation, however, is challenged by status anxiety over organizational careers and identity politics among team members who differ by ethnicity-race, gender, religion, nativity, citizenship status, etc. The purpose of this paper is to develop hypotheses about how informal and formal features of bureaucracy influence the level of inter-occupation cooperation achieved by socially diverse, multi-occupation work teams of professionals in bureaucratic work organizations. The 18 hypotheses, which are developed with the heuristic empirical case of National Science Foundation-sponsored university school partnerships in math and science curriculum innovation in the United States, culminate in the argument that cooperation can be realized as a synthesis of tensions between informal and formal features of bureaucracy in the form of participatory, high performance work systems.
Resumo:
This paper presents a single precision floating point arithmetic unit with support for multiplication, addition, fused multiply-add, reciprocal, square-root and inverse squareroot with high-performance and low resource usage. The design uses a piecewise 2nd order polynomial approximation to implement reciprocal, square-root and inverse square-root. The unit can be configured with any number of operations and is capable to calculate any function with a throughput of one operation per cycle. The floatingpoint multiplier of the unit is also used to implement the polynomial approximation and the fused multiply-add operation. We have compared our implementation with other state-of-the-art proposals, including the Xilinx Core-Gen operators, and conclude that the approach has a high relative performance/area efficiency. © 2014 Technical University of Munich (TUM).
Resumo:
The oxidative behaviour of fluoxetine was studied at a glassy carbon electrode in various buffer systems and at different pH using cyclic, differential pulse and square wave voltammetry. A new square wave voltammetric method suitable for the quality control of fluoxetine in commercial formulations has been developed using a borate pH 9 buffer solution as supporting electrolyte. Under optimized conditions, a linear response was obtained in the range 10 to 16 μM with a detection limit of 1.0 μM. Validation parameters such as sensitivity, precision and accuracy were evaluated. The proposed method was successfully applied to the determination of fluoxetine in pharmaceutical formulations. The results were statistically compared with those obtained by the reference high-performance liquid chromatographic method. No significant differences were found between the methods.
Resumo:
This study is primarily focused in establishing the solid-state sensory abilities of several luminescent polymeric calix[4]arene-based materials toward selected nitroaromatic compounds (NACs), creating the foundations for their future application as high performance materials for detection of high explosives. The phenylene ethynylene-type polymers possessing bis-calix[4]arene scaffolds in their core were designed to take advantage of the known recognition abilities of calixarene compounds toward neutral guests, particularly in solid-state, therefore providing enhanced sensitivity and selectivity in the sensing of a given analyte. It was found that all the calix[4]arene-poly(para-phenylene ethynylene)s here reported displayed high sensitivities toward the detection of nitrobenzene, 2,4-dinitrotoluene and 2,4,6-trinitrotoluene (TNT). Particularly effective and significant was the response of the films (25-60 nm of thickness) upon exposure to TNT vapor (10 ppb): over 50% of fluorescence quenching was achieved in only 10 s. In contrast, a model polymer lacking the calixarene units showed only reduced quenching activity for the same set of analytes, clearly highlighting the relevance of the macrocyclics in promoting the signaling of the transduction event. The films exhibited high photostability (less than 0.5% loss of fluorescence intensity up to 15 min of continuous irradiation) and the fluorescence quenching sensitivity could be fully recovered after exposure of the quenched films to saturated vapors of hydrazine (the initial fluorescence intensities were usually recovered within 2-5 min of exposure to hydrazine).
Resumo:
Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Engenharia Electrotécnica e de Computadores pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
O recente surgimento de nanopartículas de ferro valente-zero (nFZV), um material com elevada capacidade de remediação de solos por via de reacções de oxidação/redução pode ser uma opção viável para a remoção de fármacos do solo. A sua aplicação já é uma realidade em alguns tipos de solos contaminados por compostos específicos e, com este trabalho, procura-se estudar a sua capacidade de remediação de solos contaminados por compostos farmacêuticos, recorrendo-se a uma tecnologia “verde” de síntese destas nanopartículas. Esta tecnologia é bastante recente, ainda não aplicada no campo de trabalho, que se baseia no uso de folhas de certas árvores para produzir extratos naturais que reduzem o ferro (III) a ferro zero valente, formando nFZV. Desta forma procedeu-se, à escala laboratorial, ao estudo da eficiência das nFZV na degradação de um fármaco – paracetamol – e comparou-se com a eficiência demonstrada por oxidantes, muito utilizados hoje em dia em casos de remediação in situ como o permanganato de potássio, o peróxido de hidrogénio, o persulfato de sódio e o reagente de Fenton. O estudo foi efectuado em dois meios diferentes: solução aquosa e solo arenoso. De forma muito sucinta, o estudo baseou-se na introdução dos oxidantes/nFZV em soluções/solos contaminados com paracetamol e consequente monitorização do processo de remediação através de cromatografia líquida de alta eficiência. Nos ensaios com soluções aquosas contaminadas com paracetamol, o permanganato de potássio e o reagente de Fenton revelaram capacidade para degradar o paracetamol, atingindo mesmo um grau de degradação de 100%. O persulfato de sódio também demonstrou uma capacidade de degradação do paracetamol, chegando a atingir 99% de degradação, mas apenas recorrendo ao uso de um volume de oxidante elevado quando comparado com os outros dois oxidantes já referidos. Por outro lado, o peróxido de hidrogénio não demonstrou qualquer capacidade de degradação do paracetamol, pelo que o seu uso não passou desta fase. Verificou-se também que o uso de ferro granulado para o tratamento de água contaminada com paracetamol revelou resultados diferentes dos observados no uso de nFZV, obtendo-se eficiências de 87%. Existiram dificuldades analíticas na quantificação do paracetamol, especificamente relacionadas com o uso do extracto de folhas de amoreira, cuja composição continha substâncias que causaram dificuldades acentuadas na análise dos cromatogramas. Por fim, um pequeno teste de combinação do reagente de Fenton com os fenómenos de biodegradação resultantes dos microrganismos presentes em folhas do extracto de chá preto demonstrou que este pode ser uma área que pode e deve ser mais estudada. Desta forma, a utilização das nFZV para o tratamento de água contaminada com paracetamol não permitiu a retirada de conclusões seguras sobre a capacidade que as nFZV produzidas com extractos de folhas de amoreira e de chá preto têm de degradação do paracetamol. Nos testes de remediação de solos contaminados os resultados demonstraram que, mais uma vez, tanto o permanganato de potássio como o reagente de Fenton se revelam como os melhores oxidantes para a degradação do paracetamol, obtendo-se a degradação total do paracetamol. Por outro lado, voltou a ser necessário uma elevada quantidade de persulfato de sódio quando comparada com os dois anteriores, para que ocorra a degradação desta mesma quantidade de paracetamol, demonstrando mais uma vez que, apesar de não ideal, o persulfato demonstra capacidade de degradação do paracetamol.
Resumo:
This paper evaluates the influence of two superplasticizers (SP) on the rheological behaviour of concrete made with fine recycled concrete aggregates (FRCA). Three families of concrete were tested: family CO made without SP, family Cl made with a regular superplasticizer and family C2 made with a high-performance superplasticizer. Five replacement ratios of natural sand by FRCA were tested: 0%, 10%, 30%, 50% and 100%. The coarse aggregates were natural gravels. Three criteria were established to design the concrete mixes' composition: keep the same particle size distribution curves, adjust the water/cement ratio to obtain a similar slump and no pre-saturation of the FRCA. All mixes had the same cement and SP content. The results show that the incorporation of FRCA significantly increased the shrinkage and creep deformation. The FRCA's effect was influenced by the curing age. The reference concrete made with natural sand stabilizes the creep deformation faster than the mixes made with FRCA. The incorporation of superplasticizer increased the shrinkage at early ages and decreased the shrinkage at 91 days of age. The regular superplasticizer did not improve the creep deformation while the high-performance superplasticizer highly improved this property. The incorporation of FRCA jeopardized the SP's effectiveness. This study demonstrated that to use FRCA and superplasticizer for concrete production it is necessary to take into account the different rheological behaviour of these mixes. (C) 2015 Elsevier Ltd. All rights reserved.
Resumo:
Recent integrated circuit technologies have opened the possibility to design parallel architectures with hundreds of cores on a single chip. The design space of these parallel architectures is huge with many architectural options. Exploring the design space gets even more difficult if, beyond performance and area, we also consider extra metrics like performance and area efficiency, where the designer tries to design the architecture with the best performance per chip area and the best sustainable performance. In this paper we present an algorithm-oriented approach to design a many-core architecture. Instead of doing the design space exploration of the many core architecture based on the experimental execution results of a particular benchmark of algorithms, our approach is to make a formal analysis of the algorithms considering the main architectural aspects and to determine how each particular architectural aspect is related to the performance of the architecture when running an algorithm or set of algorithms. The architectural aspects considered include the number of cores, the local memory available in each core, the communication bandwidth between the many-core architecture and the external memory and the memory hierarchy. To exemplify the approach we did a theoretical analysis of a dense matrix multiplication algorithm and determined an equation that relates the number of execution cycles with the architectural parameters. Based on this equation a many-core architecture has been designed. The results obtained indicate that a 100 mm(2) integrated circuit design of the proposed architecture, using a 65 nm technology, is able to achieve 464 GFLOPs (double precision floating-point) for a memory bandwidth of 16 GB/s. This corresponds to a performance efficiency of 71 %. Considering a 45 nm technology, a 100 mm(2) chip attains 833 GFLOPs which corresponds to 84 % of peak performance These figures are better than those obtained by previous many-core architectures, except for the area efficiency which is limited by the lower memory bandwidth considered. The results achieved are also better than those of previous state-of-the-art many-cores architectures designed specifically to achieve high performance for matrix multiplication.
Resumo:
Thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy in the subject of Electrical and Computer Engineering
Resumo:
This paper proposes an FPGA-based architecture for onboard hyperspectral unmixing. This method based on the Vertex Component Analysis (VCA) has several advantages, namely it is unsupervised, fully automatic, and it works without dimensionality reduction (DR) pre-processing step. The architecture has been designed for a low cost Xilinx Zynq board with a Zynq-7020 SoC FPGA based on the Artix-7 FPGA programmable logic and tested using real hyperspectral datasets. Experimental results indicate that the proposed implementation can achieve real-time processing, while maintaining the methods accuracy, which indicate the potential of the proposed platform to implement high-performance, low cost embedded systems.
Resumo:
Thesis presented at the Faculdade de Ciências e Tecnologia, Universidade Nova de Lisboa, to obtain a Master degree in Conservation and Restoration,Specialization in Textiles
Resumo:
Hyperspectral instruments have been incorporated in satellite missions, providing large amounts of data of high spectral resolution of the Earth surface. This data can be used in remote sensing applications that often require a real-time or near-real-time response. To avoid delays between hyperspectral image acquisition and its interpretation, the last usually done on a ground station, onboard systems have emerged to process data, reducing the volume of information to transfer from the satellite to the ground station. For this purpose, compact reconfigurable hardware modules, such as field-programmable gate arrays (FPGAs), are widely used. This paper proposes an FPGA-based architecture for hyperspectral unmixing. This method based on the vertex component analysis (VCA) and it works without a dimensionality reduction preprocessing step. The architecture has been designed for a low-cost Xilinx Zynq board with a Zynq-7020 system-on-chip FPGA-based on the Artix-7 FPGA programmable logic and tested using real hyperspectral data. Experimental results indicate that the proposed implementation can achieve real-time processing, while maintaining the methods accuracy, which indicate the potential of the proposed platform to implement high-performance, low-cost embedded systems, opening perspectives for onboard hyperspectral image processing.
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré-concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.