873 resultados para Visione, flusso ottico, autopilota, algoritmo, Smart Camera, Sonar, giroscopio


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This report summarizes initial work to incorporate Photometries CH250 charge-coupled device (CCD) detectors in the NOAAIMLML Marine Optics System (MOS). The MOS spectroradiometer will be used primarily in the Marine Optics Buoy (MOBY) to surface truth the ocean color satellite, SeaWiFS, scheduled for launch later this year. This work was funded through Contract NAS5-31746 to NASA, Goddard Space Flight Center. (PDF contains 24 pages)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES]Este trabajo presenta un algoritmo automatizado cuyo resultado es la determinación de las ganancias óptimas del lazo de control de un mecanismo de cinemática paralela. En concreto se ha aplicado al mecanismo 5R, aunque el método es válido para cualquier otro mecanismo introduciendo el modelo mecatrónico correspondiente. Permite disponer de un procedimiento para poder elegir en un futuro la combinación de motor y reductora más apropiada para un determinado mecanismo evitando realizar adquisiciones sobredimensionadas, como ocurrió con el mecanismo en cuestión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The first part of this thesis combines Bolocam observations of the thermal Sunyaev-Zel’dovich (SZ) effect at 140 GHz with X-ray observations from Chandra, strong lensing data from the Hubble Space Telescope (HST), and weak lensing data from HST and Subaru to constrain parametric models for the distribution of dark and baryonic matter in a sample of six massive, dynamically relaxed galaxy clusters. For five of the six clusters, the full multiwavelength dataset is well described by a relatively simple model that assumes spherical symmetry, hydrostatic equilibrium, and entirely thermal pressure support. The multiwavelength analysis yields considerably better constraints on the total mass and concentration compared to analysis of any one dataset individually. The subsample of five galaxy clusters is used to place an upper limit on the fraction of pressure support in the intracluster medium (ICM) due to nonthermal processes, such as turbulent and bulk flow of the gas. We constrain the nonthermal pressure fraction at r500c to be less than 0.11 at 95% confidence, where r500c refers to radius at which the average enclosed density is 500 times the critical density of the Universe. This is in tension with state-of-the-art hydrodynamical simulations, which predict a nonthermal pressure fraction of approximately 0.25 at r500c for the clusters in this sample.

The second part of this thesis focuses on the characterization of the Multiwavelength Sub/millimeter Inductance Camera (MUSIC), a photometric imaging camera that was commissioned at the Caltech Submillimeter Observatory (CSO) in 2012. MUSIC is designed to have a 14 arcminute, diffraction-limited field of view populated with 576 spatial pixels that are simultaneously sensitive to four bands at 150, 220, 290, and 350 GHz. It is well-suited for studies of dusty star forming galaxies, galaxy clusters via the SZ Effect, and galactic star formation. MUSIC employs a number of novel detector technologies: broadband phased-arrays of slot dipole antennas for beam formation, on-chip lumped element filters for band definition, and Microwave Kinetic Inductance Detectors (MKIDs) for transduction of incoming light to electric signal. MKIDs are superconducting micro-resonators coupled to a feedline. Incoming light breaks apart Cooper pairs in the superconductor, causing a change in the quality factor and frequency of the resonator. This is read out as amplitude and phase modulation of a microwave probe signal centered on the resonant frequency. By tuning each resonator to a slightly different frequency and sending out a superposition of probe signals, hundreds of detectors can be read out on a single feedline. This natural capability for large scale, frequency domain multiplexing combined with relatively simple fabrication makes MKIDs a promising low temperature detector for future kilopixel sub/millimeter instruments. There is also considerable interest in using MKIDs for optical through near-infrared spectrophotometry due to their fast microsecond response time and modest energy resolution. In order to optimize the MKID design to obtain suitable performance for any particular application, it is critical to have a well-understood physical model for the detectors and the sources of noise to which they are susceptible. MUSIC has collected many hours of on-sky data with over 1000 MKIDs. This work studies the performance of the detectors in the context of one such physical model. Chapter 2 describes the theoretical model for the responsivity and noise of MKIDs. Chapter 3 outlines the set of measurements used to calibrate this model for the MUSIC detectors. Chapter 4 presents the resulting estimates of the spectral response, optical efficiency, and on-sky loading. The measured detector response to Uranus is compared to the calibrated model prediction in order to determine how well the model describes the propagation of signal through the full instrument. Chapter 5 examines the noise present in the detector timestreams during recent science observations. Noise due to fluctuations in atmospheric emission dominate at long timescales (less than 0.5 Hz). Fluctuations in the amplitude and phase of the microwave probe signal due to the readout electronics contribute significant 1/f and drift-type noise at shorter timescales. The atmospheric noise is removed by creating a template for the fluctuations in atmospheric emission from weighted averages of the detector timestreams. The electronics noise is removed by using probe signals centered off-resonance to construct templates for the amplitude and phase fluctuations. The algorithms that perform the atmospheric and electronic noise removal are described. After removal, we find good agreement between the observed residual noise and our expectation for intrinsic detector noise over a significant fraction of the signal bandwidth.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta memoria se trata el problema de encontrar un algoritmo que construya un emparejamiento entre dos grupos, entendiendo por emparejamiento la asignacion a cada individuo, de cada grupo, otro individuo. La situaci on inicial de la que parte el problema es la siguiente: Dos grupos, los proponentes y los propuestos, que est an formados por n individuos cada uno, siendo n la dimensi on del problema. El grupo de los proponentes es el encargado de hacer las propuestas a la hora de construir el emparejamiento. El grupo de los propuestos es el encargado de recibir y gestionar las propuestas a la hora de construir el emparejamiento. Cada individuo de cada grupo ordena en una lista, de manera decreciente, a individuos del otro grupo atendiendo a su preferencia a la hora de ser emparejado, a esta lista la llamaremos lista de preferencia del individuo, considerando el quedarse solo la opci on menos preferida de entre las aceptables. El objetivo del problema es crear un emparejamiento en el que cada pareja sea satisfactoria para los individuos que la crean en base a las preferencias de cada uno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As preocupações com o uso da terra têm permeado inúmeros estudos científicos, no âmbito nacional e internacional, voltados para a avaliação dos impactos ambientais causados pelas atividades agropecuárias. Alguns processos do ciclo hidrológico, a exemplo da evapotranspiração apresentam modificações consideráveis, devido às constantes mudanças nos usos dos solos. Desta forma, o presente trabalho busca destacar o problema das rápidas e intensas mudanças no uso do solo oriundas da expansão da atividade agropecuária e seus impactos ao meio ambiente, especialmente sobre o processo da evapotranspiração regional, na mesorregião do Sul Goiano, região típica de cerrado, localizada no centro-oeste brasileiro. A aplicação do algoritmo Surface Energy Balance Algorithm for Land - SEBAL consistiu o cerne da metodologia utilizada, com vista à estimativa dos fluxos de energia e da evapotranspiração em escala regional, obtidos com base no equacionamento do balanço de energia à superfície, complementado por dados de temperatura do ar e velocidade do vento adquiridos em estações meteorológicas (PCDs) instaladas na área de estudo. Foram utilizados dados do sensor MODIS/TERRA dos anos 2006, 2007, 2008, 2009 e 2010. O algoritmo foi testado em sua forma clássica e modificado por alterações nos critérios de seleção dos pixels âncoras, utilizados no procedimento da estimativa do fluxo de calor sensível. Pode-se concluir que a alteração dos critérios influenciou positivamente os resultados obtidos e que os valores da evapotranspiração, na região estudada, indicaram a potencialidade da metodologia empregada para o monitoramento sistemático dos componentes do balanço de energia em escala regional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada.