44 resultados para Optimisations


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Design optimisation of compressor systems is a computationally expensive problem due to the large number of variables, complicated design space and expense of the analysis tools. One approach to reduce the expense of the process and make it achievable in industrial timescales is to employ multi-fidelity techniques, which utilise more rapid tools in conjunction with the highest fidelity analyses. The complexity of the compressor design landscape is such that the starting point for these optimisations can influence the achievable results; these starting points are often existing (optimised) compressor designs, which form a limited set in terms of both quantity and diversity of the design. To facilitate the multi-fidelity optimisation procedure, a compressor synthesis code was developed which allowed the performance attributes (e.g. stage loadings, inlet conditions) to be stipulated, enabling the generation of a variety of compressors covering a range of both design topology and quality to act as seeding geometries for the optimisation procedures. Analysis of the performance of the multi-fidelity optimisation system when restricting its exploration space to topologically different areas of the design space indicated little advantage over allowing the system to search the design space itself. However, comparing results from optimisations started from seed designs with different aerodynamic qualites indicated an improved performance could be achieved by starting an optimisation from a higher quality point, and thus that the choice of starting point did affect the final outcome of the optimisations. Both investigations indicated that the performance gains through the optimisation were largely defined by the early exploration of the design space where the multi-fidelity speedup could be exploited, thus extending this region is likely to have the greatest effect on performance of the optimisation system. © 2012 AIAA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

My original contribution to knowledge is the creation of a WSN system that further improves the functionality of existing technology, whilst achieving improved power consumption and reliability. This thesis concerns the development of industrially applicable wireless sensor networks that are low-power, reliable and latency aware. This work aims to improve upon the state of the art in networking protocols for low-rate multi-hop wireless sensor networks. Presented is an application-driven co-design approach to the development of such a system. Starting with the physical layer, hardware was designed to meet industry specified requirements. The end system required further investigation of communications protocols that could achieve the derived application-level system performance specifications. A CSMA/TDMA hybrid MAC protocol was developed, leveraging numerous techniques from the literature and novel optimisations. It extends the current art with respect to power consumption for radio duty-cycled applications, and reliability, in dense wireless sensor networks, whilst respecting latency bounds. Specifically, it provides 100% packet delivery for 11 concurrent senders transmitting towards a single radio duty cycled sink-node. This is representative of an order of magnitude improvement over the comparable art, considering MAC-only mechanisms. A novel latency-aware routing protocol was developed to exploit the developed hardware and MAC protocol. It is based on a new weighted objective function with multiple fail safe mechanisms to ensure extremely high reliability and robustness. The system was empirically evaluated on two hardware platforms. These are the application-specific custom 868 MHz node and the de facto community-standard TelosB. Extensive empirical comparative performance analyses were conducted against the relevant art to demonstrate the advances made. The resultant system is capable of exceeding 10-year battery life, and exhibits reliability performance in excess of 99.9%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Accurate quantification of carbohydrate content of biomass is crucial for many bio-refining applications. The standardised NREL two stage complete acid hydrolysis protocol was evaluated for its suitability towards seaweeds, as the protocol was originally developed for lignocellulosic feedstocks. The compositional differences between the major polysaccharides in seaweeds and terrestrial plants, and seaweed’s less recalcitrant nature, could suggest the NREL based protocol may be too extreme. Underestimations of carbohydrate content through the degradation of liberated sugars into furan compounds may yield erroneous data. An optimised analysis method for carbohydrate quantification in the brown seaweed L. digitata was thus developed and evaluated. Results from this study revealed stage 1 of the assay was crucial for optimisation however stage 2 proved to be less crucial. The newly optimised protocol for L. digitata yielded 210 mg of carbohydrate per g of biomass compared to a yield of only 166 mg/g from the original NREL protocol. Use of the new protocol on two other species of seaweed also gave consistent results; higher carbohydrate and significantly lower sugar degradation products generation than the original protocol. This study demonstrated the importance of specific individual optimisations of the protocol for accurate sugar quantification, particularly for different species of seaweed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parallelizing compilers have difficulty analysing and optimising complex code. To address this, some analysis may be delayed until run-time, and techniques such as speculative execution used. Furthermore, to enhance performance, a feedback loop may be setup between the compile time and run-time analysis systems, as in iterative compilation. To extend this, it is proposed that the run-time analysis collects information about the values of variables not already determined, and estimates a probability measure for the sampled values. These measures may be used to guide optimisations in further analyses of the program. To address the problem of variables with measures as values, this paper also presents an outline of a novel combination of previous probabilistic denotational semantics models, applied to a simple imperative language.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Randomising set index functions can reduce the number of conflict misses in data caches by spreading the cache blocks uniformly over all sets. Typically, the randomisation functions compute the exclusive ors of several address bits. Not all randomising set index functions perform equally well, which calls for the evaluation of many set index functions. This paper discusses and improves a technique that tackles this problem by predicting the miss rate incurred by a randomisation function, based on profiling information. A new way of looking at randomisation functions is used, namely the null space of the randomisation function. The members of the null space describe pairs of cache blocks that are mapped to the same set. This paper presents an analytical model of the error made by the technique and uses this to propose several optimisations to the technique. The technique is then applied to generate a conflict-free randomisation function for the SPEC benchmarks. (C) 2003 Elsevier Science B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fully homomorphic encryption (FHE) scheme is envisioned as a key cryptographic tool in building a secure and reliable cloud computing environment, as it allows arbitrary evaluation of a ciphertext without revealing the plaintext. However, existing FHE implementations remain impractical due to very high time and resource costs. To the authors’ knowledge, this paper presents the first hardware implementation of a full encryption primitive for FHE over the integers using FPGA technology. A large-integer multiplier architecture utilising Integer-FFT multiplication is proposed, and a large-integer Barrett modular reduction module is designed incorporating the proposed multiplier. The encryption primitive used in the integer-based FHE scheme is designed employing the proposed multiplier and modular reduction modules. The designs are verified using the Xilinx Virtex-7 FPGA platform. Experimental results show that a speed improvement factor of up to 44 is achievable for the hardware implementation of the FHE encryption scheme when compared to its corresponding software implementation. Moreover, performance analysis shows further speed improvements of the integer-based FHE encryption primitives may still be possible, for example through further optimisations or by targeting an ASIC platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study proposes an approach to optimally allocate multiple types of flexible AC transmission system (FACTS) devices in market-based power systems with wind generation. The main objective is to maximise profit by minimising device investment cost, and the system's operating cost considering both normal conditions and possible contingencies. The proposed method accurately evaluates the long-term costs and benefits gained by FACTS devices (FDs) installation to solve a large-scale optimisation problem. The objective implies maximising social welfare as well as minimising compensations paid for generation re-scheduling and load shedding. Many technical operation constraints and uncertainties are included in problem formulation. The overall problem is solved using both particle swarm optimisations for attaining optimal FDs allocation as main problem and optimal power flow as sub-optimisation problem. The effectiveness of the proposed approach is demonstrated on modified IEEE 14-bus test system and IEEE 118-bus test system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current data-intensive image processing applications push traditional embedded architectures to their limits. FPGA based hardware acceleration is a potential solution but the programmability gap and time consuming HDL design flow is significant. The proposed research approach to develop “FPGA based programmable hardware acceleration platform” that uses, large number of Streaming Image processing Processors (SIPPro) potentially addresses these issues. SIPPro is pipelined in-order soft-core processor architecture with specific optimisations for image processing applications. Each SIPPro core uses 1 DSP48, 2 Block RAMs and 370 slice-registers, making the processor as compact as possible whilst maintaining flexibility and programmability. It is area efficient, scalable and high performance softcore architecture capable of delivering 530 MIPS per core using Xilinx Zynq SoC (ZC7Z020-3). To evaluate the feasibility of the proposed architecture, a Traffic Sign Recognition (TSR) algorithm has been prototyped on a Zedboard with the color and morphology operations accelerated using multiple SIPPros. Simulation and experimental results demonstrate that the processing platform is able to achieve a speedup of 15 and 33 times for color filtering and morphology operations respectively, with a significant reduced design effort and time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Temperature modelling of human tissue subjected to ultrasound for therapeutic use is essencial for an accurate instrumental assessment and calibration. In this paper punctual temperature modeling of a homogeneous medium, radiated by therapeutic ultrasound, is presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present an improved, biologically inspired and multiscale keypoint operator. Models of single- and double-stopped hypercomplex cells in area V1 of the mammalian visual cortex are used to detect stable points of high complexity at multiple scales. Keypoints represent line and edge crossings, junctions and terminations at fine scales, and blobs at coarse scales. They are detected by applying first and second derivatives to responses of complex cells in combination with two inhibition schemes to suppress responses along lines and edges. A number of optimisations make our new algorithm much faster than previous biologically inspired models, achieving real-time performance on modern GPUs and competitive speeds on CPUs. In this paper we show that the keypoints exhibit state-of-the-art repeatability in standardised benchmarks, often yielding best-in-class performance. This makes them interesting both in biological models and as a useful detector in practice. We also show that keypoints can be used as a data selection step, significantly reducing the complexity in state-of-the-art object categorisation. (C) 2014 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse décrit le développement et la méthodologie pour la synthèse de 2-pyrazolo[1,5-a]pyridines à partir d’ylures de N-iminopyridinium et d’halogénures de styryle. Des dérivés de chaque ylure de N-iminopyridinium et d’halogénures de styryle ont été utilisés pour la synthèse de plusieurs composés avec un intérêt pharmaceutique. Le premier chapitre présente les précédents littéraires pour la synthèse de pyrazolopyridines. Spécifiquement trois types différents de synthèse seront présentés en détail. L’importance biologique de ces composés sera discutée. La vue d’ensemble des travaux développés dans notre groupe de recherche pour la synthèse des produits de départ sera présentée brièvement. Finalement, la science intéressante qui a apporté cette idée de recherche sera révélée. Le deuxième chapitre décrit les résultats des optimisations étudiées pour la synthèse des 2-phénylpyrazolo[1,5-a]pyridines à partir d’ylures de N-benzoyl-iminopyridinium et d’iodure de styryle. Chaque substrat de la réaction a été étudié individuellement afin d’être optimisé; les ratios, les solvants, la température du milieu réactionnel et le temps optimal de la réaction ont aussi été explorés. Le troisième chapitre présente l’étendue de la synthèse des pyrazolopyridines. L’étendue de la réaction inclut les dérivés des halogénures de styryle. L’étendue de la réaction a été élargie aux dérivés d’ylures de N-iminopyridinium et ils incluent des groupements donneurs d’électrons ainsi que des groupements pauvres en électrons. Des groupements exotiques d’iodure et de bromure de vinyle ont aussi été explorés. Le quatrième chapitre démontre les études mécanistiques que l’on a faites pour mieux comprendre les cycles catalytiques qui ont lieu durant la réaction. Des études de cyclisation avec les ylures de N-iminopyridinium ont été explorées pour les produits de départ suivants : iodure de styryle et phényl acetylène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs tests médicaux, comme celui du dépistage du cancer du sein, se basent sur l’observation de section tissulaire sous un microscope. Ces tests se basent sur l’interprétation d’un spécialiste et les résultats peuvent varier d’un expert à un autre dû la subjectivité des observations. L’utilisation d’une technique analytique offrant une quantification et une identification de cibles moléculaires dans une section tissulaire permettrait aux experts de produire des diagnostics plus objectifs et diminuerait possiblement le nombre de faux diagnostics. Les travaux présentés dans ce mémoire portent sur le développement d’une technique SPRi-MALDI-IMS permettant l’imagerie en deux dimensions de protéines contenues dans une section tissulaire. La MALDI-IMS est la technique de choix pour l’imagerie de biomolécules dans les sections tissulaires. Par contre, elle ne parvient pas à elle seule à quantifier de façon absolue le matériel adsorbé à la surface. Donc, le couplage de la MALDI-IMS avec la SPRi permet la quantification absolue de protéines en deux dimensions et crée une technique répondant aux besoins des experts médicaux. Pour ce faire, nous avons étudié, l’effet de la chimie de surface sur la nature et la quantité de matériel adsorbé à la surface du capteur. De plus, la cinétique de transfert des protéines du tissu vers le capteur a dû être optimisée afin de produire des empreintes correspondant au tissu d’origine, afin d’atteindre la gamme dynamique des instruments SPRi et MALDI-IMS. La technique résultante de ces optimisations permet d’obtenir les premières images quantitatives et qualitatives de protéines en deux dimensions d’une seule section tissulaire.