936 resultados para Scheduler simulator
Resumo:
Self-assembled InN quantum dots (QDs) were grown on Si(111) substrate using plasma assisted molecular beam epitaxy (PA-MBE). Single-crystalline wurtzite structure of InN QDs was confirmed by X-ray diffraction. The dot densities were varied by varying the indium flux. Variation of dot density was confirmed by FESEM images. Interdigitated electrodes were fabricated using standard lithography steps to form metal-semiconductor-metal (MSM) photodetector devices. The devices show strong infrared response. It was found that the samples with higher density of InN QDs showed lower dark current and higher photo current. An explanation was provided for the observations and the experimental results were validated using Silvaco Atlas device simulator.
Resumo:
We report the synthesis of ZnO nanowires in ambient air at 650 degrees C by a single-step vapor transport method using two different sources Zn (ZnO nanowires-I) and Zn:Cu (ZnO nanowires-II). The Zn:Cu mixed source co-vaporize Zn with a small amount of Cu at temperatures where elemental Cu source does not vaporize. This method provides us a facile route for Cu doping into ZnO. The aspect ratio of the grown ZnO nanowires-II was found to be higher by more than five times compared ZnO nanowires-I. Photocatalytic activity was measured by using a solar simulator and its ultraviolet-filtered light. The ZnO nanowires-II shows higher catalytic activity due to increased aspect ratio and higher content of surface defects because of incorporation of Cu impurities.
Resumo:
This work describes the deposition and characterisation of semi-insulating oxygen-doped silicon films for the development of high voltage polycrystalline silicon (poly-Si) circuitry on glass. The performance of a novel poly-Si High Voltage Thin Film Transistor (HVTFT) structure, incorporating a layer of semi-insulating material, has been investigated using a two dimensional device simulator. The semi-insulating layer increases the operating voltage of the HVTFT structure by linearising the potential distribution in the device offset region. A glass compatible semi-insulating layer, suitable for HVTFT applications, has been deposited by the Plasma Enhanced Chemical Vapour Deposition (PECVD) technique from silane (SiH4), nitrous oxide (N2O) and helium (He) gas mixtures. The as-deposited films are furnace annealed at 600°C which is the maximum process temperature. By varying the N2O/SiH4 ratio the conductivity of the annealed films can be accurately controlled up to a maximum of around 10-7 Ω-1cm-1. Helium dilution of the reactant gases improves both film uniformity and reproducibility. Raman analysis shows the as-deposited and annealed films to be completely amorphous. A model for the microstructure of these Semi-Insulating Amorphous Oxygen-Doped Silicon (SIAOS) films is proposed to explain the observed physical and electrical properties.
Resumo:
This short communication presents our recent studies to implement numerical simulations for multi-phase flows on top-ranked supercomputer systems with distributed memory architecture. The numerical model is designed so as to make full use of the capacity of the hardware. Satisfactory scalability in terms of both the parallel speed-up rate and the size of the problem has been obtained on two high rank systems with massively parallel processors, the Earth Simulator (Earth simulator research center, Yokohama Kanagawa, Japan) and the TSUBAME (Tokyo Institute of Technology, Tokyo, Japan) supercomputers.
Resumo:
In this project, a system to detect and control traffic through Arduino has been designed and developed. The system has been divided in three parts. On the one hand, we have a software simulator which have been designed and developed to manage the traffic from a computer. The simulator is written in the Java Language and it is able to control four different types of crossroads, offering several options to the user for each one of them. On the other hand, with relation to the hardware, an Arduino board to make a scale model of one of the crossroads that controls the application has been used. This Arduino receives and processes the messages sent from the computer, next it shows the traffic light of the scale model in the same way that are seen in the simulator. And finally, to detect the traffic by the system, it has also been designed and developed a traffic sensor using another Arduino. To communicate the simulator in the computer and the Arduino which has been used to control the hardware of the scale model, and share information among them, the serial communication of each one of them has been used. Once completely developed each part of the system, several tests have been made to validate the correctness of both, software and hardware.
Resumo:
One of the supposed effects of the observed ozone depletion is the increase of solar UV-B irradiation at the seasurface. This will cause an impact on certain compartments of marine ecosystems. Especially, sensitive developmental stages of pelagic fish embryos might be affected. Embryos of dab (Limanda limanda) and plaice (Pleuronectes plalessa) were experimentally exposed 10 different amounts of UVB irradiation in a sunshine simulator. This programmable device allows the dosage of realistic solar irradiation in quality and guantity. Experiments were carried out in March 1995 and February 1996. Either artificially inserninated and reared emhryos of dab and plaice or embryos caught in the German Bight were exposed to simulated solar irradiation. The 1995 experiments served to identify the effective irradiation dosages. For the 1996 experiments irradiation applied was much lower, being dose to realistic valucs expected over the North Sea as a consequence of ozone depletion. The following end points were studied: 1. Mortality, 2. sublethal morphological effects (malformations), 3. DNA damage, 4. changes in buoyancy of embryos measured as changes in osmolarity of the perivitelline fluid. Conditions for the simulation of daylight were a c1oudless sky with a solar zenith distance of 34 % (air mass 1.2). The adopted ozone depletion was 40 % corresponding to 180 DU (Dobson Units) instead of 300 DU. In the 1995 experiments time and dosage dependent influenccs on mortality and buoyancy of embryos of dab and plaice were found. Even in those embryos which were protected from the UV-B spectral range a loss of buoyancy was registered after 12 hours in the simulator. No diffcrences in DNA integrity as determined by DNA unwinding of exposed and control embryos were found. Also with lower amounts of irradiation in the 1996 experiments dosage dependent acute mortality, malformations, and impact on the buoyancy of the emhryos was registered. Sublethal effects occurred as well in embryos protected against UV-B in the exposure chambers, but were not found in the dark controls. The impact of low dosages of UV-B on the buoyancy of pelagic fish embryos might indicate an important ecological threat and deserves further studies.
Resumo:
根据透镜的傅里叶变换性质,提出了采用光学傅里叶变换加级联光学成像放大并结合有限口径接收的方法来实现自由空间激光光束远距离传输的实验室模拟。由此原理设计了自由空间激光远距离传输模拟装置,该装置主要由大口径、长焦距的傅里叶变换平行光管和三级成像放大镜所组成,最大等效传输距离达2.4×10^5km,可用于星间激光通信终端综合通信性能的评估,在设定的误码率下测量终端可能的通信距离,或者在设定的作用通信距离下检测通信的误码率。
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
Optical Coherence Tomography(OCT) is a popular, rapidly growing imaging technique with an increasing number of bio-medical applications due to its noninvasive nature. However, there are three major challenges in understanding and improving an OCT system: (1) Obtaining an OCT image is not easy. It either takes a real medical experiment or requires days of computer simulation. Without much data, it is difficult to study the physical processes underlying OCT imaging of different objects simply because there aren't many imaged objects. (2) Interpretation of an OCT image is also hard. This challenge is more profound than it appears. For instance, it would require a trained expert to tell from an OCT image of human skin whether there is a lesion or not. This is expensive in its own right, but even the expert cannot be sure about the exact size of the lesion or the width of the various skin layers. The take-away message is that analyzing an OCT image even from a high level would usually require a trained expert, and pixel-level interpretation is simply unrealistic. The reason is simple: we have OCT images but not their underlying ground-truth structure, so there is nothing to learn from. (3) The imaging depth of OCT is very limited (millimeter or sub-millimeter on human tissues). While OCT utilizes infrared light for illumination to stay noninvasive, the downside of this is that photons at such long wavelengths can only penetrate a limited depth into the tissue before getting back-scattered. To image a particular region of a tissue, photons first need to reach that region. As a result, OCT signals from deeper regions of the tissue are both weak (since few photons reached there) and distorted (due to multiple scatterings of the contributing photons). This fact alone makes OCT images very hard to interpret.
This thesis addresses the above challenges by successfully developing an advanced Monte Carlo simulation platform which is 10000 times faster than the state-of-the-art simulator in the literature, bringing down the simulation time from 360 hours to a single minute. This powerful simulation tool not only enables us to efficiently generate as many OCT images of objects with arbitrary structure and shape as we want on a common desktop computer, but it also provides us the underlying ground-truth of the simulated images at the same time because we dictate them at the beginning of the simulation. This is one of the key contributions of this thesis. What allows us to build such a powerful simulation tool includes a thorough understanding of the signal formation process, clever implementation of the importance sampling/photon splitting procedure, efficient use of a voxel-based mesh system in determining photon-mesh interception, and a parallel computation of different A-scans that consist a full OCT image, among other programming and mathematical tricks, which will be explained in detail later in the thesis.
Next we aim at the inverse problem: given an OCT image, predict/reconstruct its ground-truth structure on a pixel level. By solving this problem we would be able to interpret an OCT image completely and precisely without the help from a trained expert. It turns out that we can do much better. For simple structures we are able to reconstruct the ground-truth of an OCT image more than 98% correctly, and for more complicated structures (e.g., a multi-layered brain structure) we are looking at 93%. We achieved this through extensive uses of Machine Learning. The success of the Monte Carlo simulation already puts us in a great position by providing us with a great deal of data (effectively unlimited), in the form of (image, truth) pairs. Through a transformation of the high-dimensional response variable, we convert the learning task into a multi-output multi-class classification problem and a multi-output regression problem. We then build a hierarchy architecture of machine learning models (committee of experts) and train different parts of the architecture with specifically designed data sets. In prediction, an unseen OCT image first goes through a classification model to determine its structure (e.g., the number and the types of layers present in the image); then the image is handed to a regression model that is trained specifically for that particular structure to predict the length of the different layers and by doing so reconstruct the ground-truth of the image. We also demonstrate that ideas from Deep Learning can be useful to further improve the performance.
It is worth pointing out that solving the inverse problem automatically improves the imaging depth, since previously the lower half of an OCT image (i.e., greater depth) can be hardly seen but now becomes fully resolved. Interestingly, although OCT signals consisting the lower half of the image are weak, messy, and uninterpretable to human eyes, they still carry enough information which when fed into a well-trained machine learning model spits out precisely the true structure of the object being imaged. This is just another case where Artificial Intelligence (AI) outperforms human. To the best knowledge of the author, this thesis is not only a success but also the first attempt to reconstruct an OCT image at a pixel level. To even give a try on this kind of task, it would require fully annotated OCT images and a lot of them (hundreds or even thousands). This is clearly impossible without a powerful simulation tool like the one developed in this thesis.
Resumo:
Atualmente observa-se uma expressiva perda de biodiversidade global resultante de atividades antrópicas, sendo a introdução de espécies exóticas uma das mais impactantes. A jaqueira Artocarpus heterophyllus é uma espécie exótica introduzida no Brasil durante o período colonial, sendo considerada invasora em diversas localidades. Na Mata Atlântica invade áreas de mata aberta e de borda, habitualmente associadas a ambientes antrópicos. Na Ilha Grande é encontrada em grande abundância em decorrência do histórico de ocupação humana. Para compreender como a mastofauna responde a presença da jaqueira, o Laboratório de Ecologia de Mamíferos da Universidade do Estado do Rio de Janeiro (UERJ) vem desenvolvendo um estudo ao longo de seis anos nos arredores da Vila Dois Rios, localizada na face oceânica da Ilha Grande. A partir dos resultados prévios iniciou-se uma segunda etapa do estudo no mesmo local que buscou avaliar diferentes métodos de controle das jaqueiras. O presente estudo é uma continuação direta desses dois trabalhos anteriores e teve como objetivo acompanhar as respostas da comunidade de pequenos mamíferos no período imediatamente posterior ao controle. Durante 18 meses foram amostradas bimestralmente 18 grades, 10 aonde foi efetuado o controle das jaqueiras e 8 aonde não foi constatada a presença desta árvore. Em cada grade foram colocadas 11 armadilhas de captura viva sendo banana a isca utilizada. Os mamíferos capturados foram medidos e suas fezes coletadas. A quantidade de jacas em cada área também foi anotada bimensalmente. As fezes foram analisadas em laboratório e as sementes encontradas identificadas. Os resultados obtidos indicam que a influência de A. heterophyllus sobre a estrutura da comunidade de pequenos mamíferos foi menor após o tratamento de controle. A única espécie que parece ainda responder a abundância de jaqueiras é o roedor Trinomys dimidiatus, que apresentou densidades mais elevadas nas áreas em tratamento, porém mais próximas a resultados obtidos para espécies congêneres em áreas pouco antropizadas. Utilizando uma abordagem de redes complexas observamos que, embora T. dimidiatus seja a espécie mais abundante em termos de número de indivíduos, o gambá Didelphis aurita parece ser a espécie de mamífero mais importante para dispersão de sementes nativas, aparecendo como espécie com maior número de conexões com espécies de sementes nas redes contruídas para as áreas sem jaqueiras e com jaqueiras antes e após o tratamento. Finalmente, a partir dos dados obtidos criamos um modelo matemático para a população de T. dimidiatus dos arredores da Vila Dois Rios, baseado em um crescimento logístico. Os resultados do modelo proposto se mostraram correlacionados com os dados de abundância reais, de modo que ele parece ser um simulador adequado da população local.
Resumo:
One of the most challenging problems in mobile broadband networks is how to assign the available radio resources among the different mobile users. Traditionally, research proposals are either speci c to some type of traffic or deal with computationally intensive algorithms aimed at optimizing the delivery of general purpose traffic. Consequently, commercial networks do not incorporate these mechanisms due to the limited hardware resources at the mobile edge. Emerging 5G architectures introduce cloud computing principles to add flexible computational resources to Radio Access Networks. This paper makes use of the Mobile Edge Computing concepts to introduce a new element, denoted as Mobile Edge Scheduler, aimed at minimizing the mean delay of general traffic flows in the LTE downlink. This element runs close to the eNodeB element and implements a novel flow-aware and channel-aware scheduling policy in order to accommodate the transmissions to the available channel quality of end users.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
79 p.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Caracterización experimental del comportamiento dinámico de un accionamiento de máquina herramienta.
Resumo:
[ES]El objetivo de este proyecto es validar experimentalmente una serie de modelos que caracterizan el comportamiento de un accionamiento de máquina herramienta de husillo a bolas. El proyecto aparece como respuesta a un problema de precisión que se percibe en máquinas herramienta con pórticos y columnas verticales de varios metros. Para ello, es necesario diseñar un prototipo de esta máquina herramienta y un modelo de 3 grados de libertad (con un programa numérico y un simulador). Este modelo debe ser validado por medidas internas y externas para predecir como una columna real actuaria bajo condiciones predeterminadas.