994 resultados para T-feed bandwidth enhancement


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Graduates are deemed to be a key source of talent within many organisations and thus recruiting, developing and retaining them is viewed as a logical talent management (TM) strategy. However, there has been little attention paid to university graduates as part of an organisation’s TM strategy. Such a specific focus addresses the need for further research into the segmentation of talent pools and the specific challenges different talent pools are likely to create. This research, which utilised a qualitative data collection strategy, examined the experiences and practices of six large UK organisations in relation to graduate TM. Drawing from Gallardo-Gallardo, Dries and González-Cruz’s (2013. What is the meaning of ‘talent’ in the world of work? Human Resource Management Review, 23, 290–300.) framework for the conceptualisation of talent, the findings from this research indicate and explain why graduate employers are frequently compelled to use the object approach (talent as characteristics of people) due to the unique characteristics that recent graduates possess, even though other studies have found that a subject approach (talent as people and what they do) is preferred by most employers. Ultimately, employers conceptualise graduate talent by what they describe as ‘the edge’ which needs to be ‘sharpened’ to fully realise the potential that graduates offer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Realising memory intensive applications such as image and video processing on FPGA requires creation of complex, multi-level memory hierarchies to achieve real-time performance; however commerical High Level Synthesis tools are unable to automatically derive such structures and hence are unable to meet the demanding bandwidth and capacity constraints of these applications. Current approaches to solving this problem can only derive either single-level memory structures or very deep, highly inefficient hierarchies, leading in either case to one or more of high implementation cost and low performance. This paper presents an enhancement to an existing MC-HLS synthesis approach which solves this problem; it exploits and eliminates data duplication at multiple levels levels of the generated hierarchy, leading to a reduction in the number of levels and ultimately higher performance, lower cost implementations. When applied to synthesis of C-based Motion Estimation, Matrix Multiplication and Sobel Edge Detection applications, this enables reductions in Block RAM and Look Up Table (LUT) cost of up to 25%, whilst simultaneously increasing throughput.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

It is shown that under certain conditions it is possible to obtain a good speech estimate from noise without requiring noise estimation. We study an implementation of the theory, namely wide matching, for speech enhancement. The new approach performs sentence-wide joint speech segment estimation subject to maximum recognizability to gain noise robustness. Experiments have been conducted to evaluate the new approach with variable noises and SNRs from -5 dB to noise free. It is shown that the new approach, without any estimation of the noise, significantly outperformed conventional methods in the low SNR conditions while retaining comparable performance in the high SNR conditions. It is further suggested that the wide matching and deep learning approaches can be combined towards a highly robust and accurate speech estimator.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The relatively high elastic modulus coupled with the presence of toxic vanadium (V) in Ti6Al4 V alloy has long been a concern in orthopaedic applications. To solve the problem, a variety of non-toxic and low modulus beta-titanium (beta-Ti) alloys have been developed. Among the beta-Ti alloy family, the quaternary Ti-Nb-Zr-Ta (TNZT) alloys have received the highest attention as a promising replacement for Ti6Al4 V due to their lower elastic modulus and outstanding long term stability against corrosion in biological environments. However, the inferior wear resistance of TNZT is still a problem that must be resolved before commercialising in the orthopaedic market. In this work, a newly-developed laser surface treatment technique was employed to improve the surface properties of Ti-35.3Nb-7.3Zr-5.7Ta alloy. The surface structure and composition of the laser-treated TNZT surface were examined by grazing incidence x-ray diffraction (GI-XRD) and x-ray photoelectron spectroscopy (XPS). The wear and corrosion resistance were evaluated by pin-on-plate sliding test and anodic polarisation test in Hanks’ solution. The experimental results were compared with the untreated (or base) TNZT material. The research findings showed that the laser surface treatment technique reported in this work can effectively improve the wear and corrosion resistance of TNZT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Many-body theory is developed to calculate the γ spectra for positron annihilation in noble-gas atoms. Inclusion of electron-positron correlation effects and core annihilation gives spectra in excellent agreement with experiment [K. Iwata et al., Phys. Rev. Lett. 79, 39 (1997)]. The calculated correlation enhancement factors γnl for individual electron orbitals nl are found to scale with the ionization energy Inl (in eV), as γnl=1+ √A/Inl+(B/Inl)β, where A≈40  eV, B≈24  eV, and β≈2.3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The application of chemometrics in food science has revolutionized the field by allowing the creation of models able to automate a broad range of applications such as food authenticity and food fraud detection. In order to create effective and general models able to address the complexity of real life problems, a vast amount of varied training samples are required. Training dataset has to cover all possible types of sample and instrument variability. However, acquiring a varied amount of samples is a time consuming and costly process, in which collecting samples representative of the real world variation is not always possible, specially in some application fields. To address this problem, a novel framework for the application of data augmentation techniques to spectroscopic data has been designed and implemented. This is a carefully designed pipeline of four complementary and independent blocks which can be finely tuned depending on the desired variance for enhancing model's robustness: a) blending spectra, b) changing baseline, c) shifting along x axis, and d) adding random noise.
This novel data augmentation solution has been tested in order to obtain highly efficient generalised classification model based on spectroscopic data. Fourier transform mid-infrared (FT-IR) spectroscopic data of eleven pure vegetable oils (106 admixtures) for the rapid identification of vegetable oil species in mixtures of oils have been used as a case study to demonstrate the influence of this pioneering approach in chemometrics, obtaining a 10% improvement in classification which is crucial in some applications of food adulteration.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas distribuídos embarcados (Distributed Embedded Systems – DES) têm sido usados ao longo dos últimos anos em muitos domínios de aplicação, da robótica, ao controlo de processos industriais passando pela aviónica e pelas aplicações veiculares, esperando-se que esta tendência continue nos próximos anos. A confiança no funcionamento é uma propriedade importante nestes domínios de aplicação, visto que os serviços têm de ser executados em tempo útil e de forma previsível, caso contrário, podem ocorrer danos económicos ou a vida de seres humanos poderá ser posta em causa. Na fase de projecto destes sistemas é impossível prever todos os cenários de falhas devido ao não determinismo do ambiente envolvente, sendo necessária a inclusão de mecanismos de tolerância a falhas. Adicionalmente, algumas destas aplicações requerem muita largura de banda, que também poderá ser usada para a evolução dos sistemas, adicionandolhes novas funcionalidades. A flexibilidade de um sistema é uma propriedade importante, pois permite a sua adaptação às condições e requisitos envolventes, contribuindo também para a simplicidade de manutenção e reparação. Adicionalmente, nos sistemas embarcados, a flexibilidade também é importante por potenciar uma melhor utilização dos, muitas vezes escassos, recursos existentes. Uma forma evidente de aumentar a largura de banda e a tolerância a falhas dos sistemas embarcados distribuídos é a replicação dos barramentos do sistema. Algumas soluções existentes, quer comerciais quer académicas, propõem a replicação dos barramentos para aumento da largura de banda ou para aumento da tolerância a falhas. No entanto e quase invariavelmente, o propósito é apenas um, sendo raras as soluções que disponibilizam uma maior largura de banda e um aumento da tolerância a falhas. Um destes raros exemplos é o FlexRay, com a limitação de apenas ser permitido o uso de dois barramentos. Esta tese apresentada e discute uma proposta para usar a replicação de barramentos de uma forma flexível com o objectivo duplo de aumentar a largura de banda e a tolerância a falhas. A flexibilidade dos protocolos propostos também permite a gestão dinâmica da topologia da rede, sendo o número de barramentos apenas limitado pelo hardware/software. As propostas desta tese foram validadas recorrendo ao barramento de campo CAN – Controller Area Network, escolhido devido à sua grande implantação no mercado. Mais especificamente, as soluções propostas foram implementadas e validadas usando um paradigma que combina flexibilidade com comunicações event-triggered e time-triggered: o FTT – Flexible Time- Triggered. No entanto, uma generalização para CAN nativo é também apresentada e discutida. A inclusão de mecanismos de replicação do barramento impõe a alteração dos antigos protocolos de replicação e substituição do nó mestre, bem como a definição de novos protocolos para esta finalidade. Este trabalho tira partido da arquitectura centralizada e da replicação do nó mestre para suportar de forma eficiente e flexível a replicação de barramentos. Em caso de ocorrência de uma falta num barramento (ou barramentos) que poderia provocar uma falha no sistema, os protocolos e componentes propostos nesta tese fazem com que o sistema reaja, mudando para um modo de funcionamento degradado. As mensagens que estavam a ser transmitidas nos barramentos onde ocorreu a falta são reencaminhadas para os outros barramentos. A replicação do nó mestre baseia-se numa estratégia líder-seguidores (leaderfollowers), onde o líder (leader) controla todo o sistema enquanto os seguidores (followers) servem como nós de reserva. Se um erro ocorrer no nó líder, um dos nós seguidores passará a controlar o sistema de uma forma transparente e mantendo as mesmas funcionalidades. As propostas desta tese foram também generalizadas para CAN nativo, tendo sido para tal propostos dois componentes adicionais. É, desta forma possível ter as mesmas capacidades de tolerância a falhas ao nível dos barramentos juntamente com a gestão dinâmica da topologia de rede. Todas as propostas desta tese foram implementadas e avaliadas. Uma implementação inicial, apenas com um barramento foi avaliada recorrendo a uma aplicação real, uma equipa de futebol robótico onde o protocolo FTT-CAN foi usado no controlo de movimento e da odometria. A avaliação do sistema com múltiplos barramentos foi feita numa plataforma de teste em laboratório. Para tal foi desenvolvido um sistema de injecção de faltas que permite impor faltas nos barramentos e nos nós mestre, e um sistema de medida de atrasos destinado a medir o tempo de resposta após a ocorrência de uma falta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A paradigm shift is taking place from using transplanting tissue and synthetic implants to a tissue engineering approach that aims to regenerate damaged tissues by combining cells from the body with highly porous scaffold biomaterials, which act as templates, guiding the growth of new tissue. The central focus of this thesis was to produce porous glass and glass-ceramic scaffolds that exhibits a bioactive and biocompatible behaviour with specific surface reactivity in synthetic physiological fluids and cell-scaffold interactions, enhanced by composition and thermal treatments applied. Understanding the sintering behaviour and the interaction between the densification and crystallization processes of glass powders was essential for assessing the ideal sintering conditions for obtaining a glass scaffolds for tissue engineering applications. Our main goal was to carry out a comprehensive study of the bioactive glass sintering, identifying the powder size and sintering variables effect, for future design of sintered glass scaffolds with competent microstructures. The developed scaffolds prepared by the salt sintering method using a 3CaO.P2O5 - SiO2 - MgO glass system, with additions of Na2O with a salt, NaCl, exhibit high porosity, interconnectivity, pore size distribution and mechanical strength suitable for bone repair applications. The replacement of 6 % MgO by Na2O in the glass network allowed to tailor the dissolution rate and bioactivity of the glass scaffolds. Regarding the biological assessment, the incorporation of sodium to the composition resulted in an inibition cell response for small periods. Nevertheless it was demonstrated that for 21 days the cells response recovered and are similar for both glass compositions. The in vitro behaviour of the glass scaffolds was tested by introducing scaffolds to simulated body fluid for 21 days. Energy-dispersive Xray spectroscopy and SEM analyses proved the existence of CaP crystals for both compositions. Crystallization forming whitlockite was observed to affect the dissolution behaviour in simulated body fluid. By performing different heat treatments, it was possible to control the bioactivity and biocompatability of the glass scaffolds by means of a controlled crystallization. To recover and tune the bioactivity of the glass-ceramic with 82 % crystalline phase, different methods have been applied including functionalization using 3- aminopropyl-triethoxysilane (APTES). The glass ceramic modified surface exhibited an accelerated crystalline hydroxyapatite layer formation upon immersion in SBF after 21 days while the as prepared glass-ceramic had no detected formation of calcium phosphate up to 5 months. A sufficient mechanical support for bone tissue regeneration that biodegrade later at a tailorable rate was achievable with the glass–ceramic scaffold. Considering the biological assessment, scaffolds demonstrated an inductive effect on the proliferation of cells. The cells showed a normal morphology and high growth rate when compared to standard culture plates. This study opens up new possibilities for using 3CaO.P2O5–SiO2–MgO glass to manufacture various structures, while tailoring their bioactivity by controlling the content of the crystalline phase. Additionally, the in vitro behaviour of these structures suggests the high potential of these materials to be used in the field of tissue regeneration.