938 resultados para Automatic frequency control
Resumo:
This paper reports a high-resolution frequency-output MEMS tilt sensor based on resonant sensing principles. The tilt sensor measures orientation by sensing the component of gravitational acceleration along a specified input axis. A combination of design enhancements enables significantly higher sensitivity for this device as compared to previously reported prototype sensors. The MEMS tilt sensor is calibrated on a manual tilt table over tilt angles ranging over 0-90 degrees with a relatively linear response measured in the range of ±20°(linearity error <2.3%) with a scale factor of approximately 50.06 Hz/degree. The noise-limited resolution of the sensor is found to be approximately 250 nano-radians for an integration time of 0.8 s, which is over an order of magnitude better than previously reported results [1]. © 2013 IEEE.
Resumo:
In this paper, a low-power, highly linear, integrated, active-RC filter exhibiting a multi-standard (IEEE 802.11a/b/g and DVB-H) application and bandwidth (3MHz, 4MHz, 9.5MHz) is present. The filter exploits digitally-controlled polysilicon resister banks and an accurate automatic tuning scheme to account for process and temperature variations. The automatic frequency calibration scheme provides better than 3% corner frequency accuracy. The Butterworth filter is design for receiver (WLAN and DVB-H mode) and transmitter (WLAN mode). The filter dissipation is 3.4 mA in RX mode and 2.3 mA (only for one path) in TX mode from 2.85-V supply. The dissipation of calibration consumes 2mA. The circuit has been fabricated in a 0.35um 47-GHz SiGe BiCMOS technology, the receiver and transmitter occupy 0.28-mm(2) and 0.16-mm(2) (calibration circuit excluded), respectively.
Resumo:
基于BP人工神经网络原理,利用MATLAB神经网络工具箱,以实验得到的57组气化实验数据作为样本,建立了一个以加料量和送风量为输入变量,以燃气热值、产气率、碳转化率和气化效率为输出变量,用于描述连续稳定气化过程的内循环流化床生物质气化模型。对模型的隐层节点数和训练周期改变对模拟结果的影响进行了分析,发现当隐层节点数为20,训练步骤为50步,模型的4个输出变量的模拟结果与实验结果相关系数均超过0.95;同时对该模型的预测能力进行了考察,模型预测结果与实验结果吻合良好,证明了该模型具有较强的泛化能力,为生物质内循环流化床气化系统的优化设计和自动控制提供新思路。
Resumo:
A low-power, highly linear, multi-standard, active-RC filter with an accurate and novel tuning architec-ture is presented. It exhibits 1EEE 802. 11a/b/g (9.5 MHz) and DVB-H (3 MHz, 4 MHz) application. The filter exploits digitally-controlled polysilicon resistor banks and a phase lock loop type automatic tuning system. The novel and complex automatic frequency calibration scheme provides better than 4 comer frequency accuracy, and it can be powered down after calibration to save power and avoid digital signal interference. The filter achieves OIP3 of 26 dBm and the measured group delay variation of the receiver filter is 50 ns (WLAN mode). Its dissipation is 3.4 mA in RX mode and 2.3 mA (only for one path) in TX mode from a 2.85 V supply. The dissipation of calibration consumes 2 mA. The circuit has been fabricated in a 0.35μm 47 GHz SiGe BiCMOS technology; the receiver and transmitter filter occupy 0.21 mm~2 and 0.11 mm~2 (calibration circuit excluded), respectively.
Resumo:
This paper primarily elaborates automatic gain control design method in software radio receiver. It mainly uses in-phase and quadrature components quadratic sum to subtract the expectation of the output power to get the error statistic of the plus. The error statistic of the plus is smoothed by first order digital filter, and then is used to gain the output signals of controller. Thereby, it can make the system work well in certain dynamic region area of signals. It is designed for the Cooling Storage Ring ...中文文摘:本文主要阐述了软件无线电接收机中的相干AGC设计,主要利用了同相和正交支路的平方和与所期望的信号输出功率值相减,得到增益的误差统计量。该误差统计量经过一阶数字滤波器平滑,然后用于控制器输出信号的增益,从而使系统在一定的信号动态范围内都能工作。该设计主要用于兰州重离子加速器冷却存贮环的主环(CSRm)的重离子束团踢轨(Kicker System)的精确控制。
Resumo:
HIRFL-CSR(Heavy Ion Research Facility at LanZhou-Cooling Storage Ring兰州重离子冷却储存环)是国家重大科学工程,其控制系统是一个庞大的系统,由许多分控制系统组成,高频系统是其重要组成部分之一。加速器的加速过程都是由高频系统来完成的。由于高频控制系统的控制对象就是高频腔体,控制系统的稳定性和输出频率的精确性将直接影响到加速器系统的正常工作,而对于高频系统的状态回读又直接决定了对于高频系统的远程监控能力,所以高频控制系统的设计非常重要。本设计基于现场可编程逻辑门阵列FPGA和数字信号专用处理器DSP搭建, 一方面可以完成从控制中心远程控制高频腔体,另一方面也可以完成对于当前状态的读取,所经过的通道也是多样化的,包括CPCI总线通信,CANBUS总线通信或者是485总线通信。本文的内容包括了1>对于高频控制系统控制对象的分析以及各种控制参数要求。2>组成此系统的硬件部分分析选择以及硬件系统的搭建过程。3>对FPGA和DSP进行程序设计的过程和方法。本文的价值不仅在于对高频系统的控制上,对于其他数据采集系统,远程控制系统以及总线通信和数据分析算法上也有着参考价值
Resumo:
重元素的高电离态、少电子原子光谱研究是物理学当今国际上前沿领域研究的热点课题之一。利用兰州重离子加速器HIRFL产生的不同能量离子,选择性的对有关重元素高电离态、少电子(剥掉多电子)原子光谱进行研究,这对于研究重元素高电离态原子结构和受控聚变研究具有特殊的意义。本文基于束箔光谱学测量原理,成功开发了高电离态原子光谱与能级寿命自动测量控制系统。该系统用于在HIRFL上进行的高电离态原子光谱与能级寿命测量实验。本文首先介绍了重元素的高电离态、少电子原子光谱研究,随后介绍了光谱与能级寿命自动测量控制系统的框架、解决方案和软件开发,软件开发部分是本文阐述的重点,包括软现代软件技术发展、软件工程开发和整个测量控制系统软件设计,本文都作了详尽的叙述。在实际程序代码中,有很多模块和类,本文就几个典型类的设计进行了剖析。最后给出实验结果和面向未来的系统优化方案。基于Windows 98,作者用Visual C++ 6.0成功的完成了光谱与能级寿命自动测量控制系统软件设计。该软件在HIRFL上己经完成了多次实验,系统可靠性和数据获取实时性都很高,实验中获取了非常精确的光谱曲线。该软件实现了实验过程的程序化运行,并在实验中获得了准确数据,它的完成对于重元素的高电离态、少电子原子光谱的研究具有良好的实用价值。
Resumo:
In the last decade, we have witnessed the emergence of large, warehouse-scale data centres which have enabled new internet-based software applications such as cloud computing, search engines, social media, e-government etc. Such data centres consist of large collections of servers interconnected using short-reach (reach up to a few hundred meters) optical interconnect. Today, transceivers for these applications achieve up to 100Gb/s by multiplexing 10x 10Gb/s or 4x 25Gb/s channels. In the near future however, data centre operators have expressed a need for optical links which can support 400Gb/s up to 1Tb/s. The crucial challenge is to achieve this in the same footprint (same transceiver module) and with similar power consumption as today’s technology. Straightforward scaling of the currently used space or wavelength division multiplexing may be difficult to achieve: indeed a 1Tb/s transceiver would require integration of 40 VCSELs (vertical cavity surface emitting laser diode, widely used for short‐reach optical interconnect), 40 photodiodes and the electronics operating at 25Gb/s in the same module as today’s 100Gb/s transceiver. Pushing the bit rate on such links beyond today’s commercially available 100Gb/s/fibre will require new generations of VCSELs and their driver and receiver electronics. This work looks into a number of state‐of-the-art technologies and investigates their performance restraints and recommends different set of designs, specifically targeting multilevel modulation formats. Several methods to extend the bandwidth using deep submicron (65nm and 28nm) CMOS technology are explored in this work, while also maintaining a focus upon reducing power consumption and chip area. The techniques used were pre-emphasis in rising and falling edges of the signal and bandwidth extensions by inductive peaking and different local feedback techniques. These techniques have been applied to a transmitter and receiver developed for advanced modulation formats such as PAM-4 (4 level pulse amplitude modulation). Such modulation format can increase the throughput per individual channel, which helps to overcome the challenges mentioned above to realize 400Gb/s to 1Tb/s transceivers.
Resumo:
Power capping is a fundamental method for reducing the energy consumption of a wide range of modern computing environments, ranging from mobile embedded systems to datacentres. Unfortunately, maximising performance and system efficiency under static power caps remains challenging, while maximising performance under dynamic power caps has been largely unexplored. We present an adaptive power capping method that reduces the power consumption and maximizes the performance of heterogeneous SoCs for mobile and server platforms. Our technique combines power capping with coordinated DVFS, data partitioning and core allocations on a heterogeneous SoC with ARM processors and FPGA resources. We design our framework as a run-time system based on OpenMP and OpenCL to utilise the heterogeneous resources. We evaluate it through five data-parallel benchmarks on the Xilinx SoC which allows fully voltage and frequency control. Our experiments show a significant performance boost of 30% under dynamic power caps with concurrent execution on ARM and FPGA, compared to a naive separate approach.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
Dissertação para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo Energia
Resumo:
Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.