1000 resultados para Sistema de visão computacional
Resumo:
Desde a incorporação da automação no processo produtivo, a busca por sistemas mais eficientes, objetivando o aumento da produtividade e da qualidade dos produtos e serviços, direcionou os estudos para o planejamento de estratégias que permitissem o monitoramento de sistemas com o intuito principal de torna-los mais autônomos e robustos. Por esse motivo, as pesquisas envolvendo o diagnóstico de faltas em sistemas industriais tornaram-se mais intensivas, visto a necessidade da incorporação de técnicas para monitoramente detalhado de sistemas. Tais técnicas permitem a verificação de perturbações, falta ou mesmo falhas. Em vista disso, essa trabalho investiga técnicas de detecção e diagnostico de faltas e sua aplicação em motores de indução trifásicos, delimitando o seu estudo em duas situações: sistemas livre de faltas, e sobre atuação da falta incipiente do tipo curto-circuitoparcial nas espiras do enrolamento do estator. Para a detecção de faltas, utilizou-se analise paramétrica dos parâmetros de um modelo de tempo discreto, de primeira ordem, na estrutura autoregressivo com entradas exógenas (ARX). Os parâmetros do modelo ARX, que trazem informação sobre a dinâmica dominante do sistema, são obtidos recursivamente pela técnica dos mínimos quadrados recursivos (MQR). Para avaliação da falta, foi desenvolvido um sistema de inferência fuzzy (SIF) intervala do tipo-2, cuja mancha de incerteza ou footprint of uncertainty (FOU), características de sistema fuzzy tipo-2, é ideal como forma de representar ruídos inerentes a sistemas reais e erros numéricos provenientes do processo de estimação paramétrica. Os parâmetros do modelo ARX são entradas para o SIF. Algoritmos genéricos (AG’s) foram utilizados para otimização dos SIF intervalares tipo-2, objetivando reduzir o erro de diagnóstico da falta identificada na saída desses sistemas. Os resultados obtidos em teste de simulação computacional demonstram a efetividade da metodologia proposta.
Resumo:
Este trabalho visou reunir e disponibilizar informações sobre a ictiofauna da Amazônia segundo vários escritos do século XVI ao XVII. Consultaram-se, fontes documentais de várias bibliotecas e arquivos, e dos documentos selecionados procedeu-se à identificação taxonômica das espécies neles referidas. Também se fizeram observações com base nas referências textuais e iconográficas disponíveis, de forma a acrescentar informações consideradas de relevância zoológica. Constatou-se que, devido à definição então vigente do conceito de "peixe", um estudo da ictiologia do período precisaria incluir também informações sobre espécies de outros táxons aquáticos que não agnatos, elasmobrânquios e teleósteos. No início do período colonial, a idéia de peixe era generalizada simplesmente como pescado, e não havia muita preocupação em inventariar a ictiofauna do Novo Mundo. Mais tarde, alguns dos visitantes da região puseram-se a descrever e ilustrar a ictiofauna de maneira mais específica: nessa fase em que se dava mais detalhamento às espécies de peixes destacavam-se o texto atribuído ao Fr. Cristóvão de Lisboa (1625- 1631), o códice do arquiteto Antonio Giuseppe Landi (1772) e principalmente o manuscrito do Pe. João Daniel (1758-1776) — o qual se revelou um pioneiro do movimento conservacionista da Amazônia. Os visitantes que vieram à região careciam, no geral, de formação acadêmica específica e, servindo a funções várias alheias à Ciência, não seguiam uma metodologia que se pudesse chamar de científica. Devido ao fato de seus manuscritos não terem sido divulgados ou sequer impressos, por vários motivos, o conhecimento neles produzido não foi cumulativo ou analítico, e não teve influência significativa no desenvolvimento da Ictiologia. Por outro lado, os naturalistas que efetivamente não estiveram na Amazônia puderam trazer uma contribuição de maior impacto, consolidando o conhecimento obtido através principalmente da obra de Georg Marcgrave (1648) e de exemplares coletados nas possessões holandesas da América do Sul, e incluindo-o num grande sistema classificatório que mais tarde despertaria o interesse de outros cientistas em conhecer a ictiofauna amazônica.
Resumo:
Devido ao auge do crescimento industrial na Região Norte e, em especial, o Pólo Industrial de Manaus (PIM), são necessários obter ferramentas matemáticas que facilitem ao especialista tomar decisões sobre a seleção e dimensionamento dos filtros harmônicos que proporcionam neutralizar os efeitos prejudiciais dos harmônicos gerados pelas cargas não lineares da indústria e alcançar conformidade com os padrões das normas de qualidade de energia correspondentes. Além disso, como os filtros harmônicos passivos têm a capacidade de gerar potência reativa à rede, estes meios são eficazes compensadores de potência reativa e, portanto, podem conseguir uma economia significativa no faturamento de energia elétrica consumida por essas instalações industriais. Esta tese tem como objetivo geral desenvolver um método matemático e uma ferramenta computacional para a seleção da configuração e parâmetros do projeto de um conjunto de filtros harmônicos passivos para sistemas elétricos industriais. Nesta ótica, o problema de otimização da compensação de harmônicos por meio de filtros passivos foi formulado como um problema multiobjetivo que considera tanto os objetivos da redução da distorção harmônica como da efetividade econômica do projeto considerando as características das tarifas brasileiras. Todavia, a formulação apresentada considera as restrições relevantes impostas pelas normas brasileiras e estrangeiras. A solução computacional para este problema foi conseguida, usando o algoritmo genético NSGA-II que determina um conjunto de soluções ótimas de Pareto (Fronteira) que permitem ao projetista escolher as soluções mais adequadas para o problema. Por conseguinte, a ferramenta computacional desenvolvida tem várias novidades como: não só calcula os parâmetros que caracterizam os filtros, como também seleciona o tipo de configuração e o número de ramos do filtro em cada barra candidata de acordo com um conjunto de configurações pré-estabelecidas; têm implementada duas normas para a avaliação das restrições de qualidade de energia (Prodist-Módulo 8 e IEEE 519-92) que podem ser selecionadas pelo usuário; determina soluções com bons indicadores de desempenho para vários cenários característicos e não característicos do sistema que permitem a representação das as variações diárias da carga; das variações dos parâmetros do sistema e dos filtros; avalia o custo das contas de energia numa rede elétrica industrial que tem diferentes condições de operação (cenários característicos); e avalia o efeito econômico de filtros de harmônicos como compensadores de potência reativa. Para desenvolver a ferramenta computacional adequada desta tese, foi empregado um modelo trifásico em coordenadas de fase para redes de energia elétrica industriais e de serviços onde foram feitos vários programas utilizando várias ferramentas computacionais adicionais. Estas ferramentas compreendem um programa de varredura de freqüência, um programa do fluxo de harmônicos por injeção de correntes e um programa de fluxo de potência à freqüência fundamental. Os resultados positivos desta tese, a partir da análise de vários exemplos práticos, mostram as vantagens do método desenvolvido.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
A visão de cores consiste na discriminação de objetos com base em sua composição espectral, auxiliando na interação organismo-ambiente. Dentre os primatas, estima-se que a dicromacia seja uma característica compartilhada pela maioria das espécies platirrinas, sendo esta condição polimórfica e ligada ao sexo. O objetivo deste estudo foi comparar os resultados produzidos por equipamentos e softwares distintos para avaliar a tri/dicromacia em dois machos e duas fêmeas da espécie Cebus sp. Foram utilizados dois programas computadorizados: um envolvendo uma versão adaptada do Cambridge Colour Test e outro desenvolvido para o uso em sistema computacional padrão. Nos Experimentos 1 e 2 foi possível averiguar a condição tricromata de uma participante e dicromata dos participantes restantes. No Experimento 3, uma participante fêmea e um macho apresentaram desempenho dicromata compatível com o registrado nos experimentos anteriores. Neste mesmo experimento, uma participante fêmea apresentou desempenho tricromata compatível com o registrado nos experimentos anteriores. Concluiu-se com este estudo que condições favoráveis para a avaliação de visão de cores em primatas platirrinos podem ser edificadas envolvendo equipamento e software de baixo custo financeiro e de fácil programação. Entretanto, devido ao pequeno número de sessões realizadas com o equipamento de baixo custo, sugere-se a replicação do Experimento 3 e a realização de novas sessões com maior número de participantes e envolvendo novos arranjos de estímulos. Acredita-se que se novos dados corroborarem os produzidos aqui, este procedimento e equipamento poderá ser utilizado para avaliação de outras espécies platirrinas onde dados comportamentais são escassos.
Resumo:
Os maiores problemas de contaminação de aquíferos e solos são atribuídos aos hidrocarbonetos monoaromáticos, que são os constituintes mais solúveis e mais móveis da fração de algumas substâncias, como por exemplo, da gasolina. Para a remoção destes contaminantes, a adsorção por carvão ativado é o método mais utilizado, pois o carvão apresenta uma habilidade significativa para adsorver componentes orgânicos de baixo peso molecular, como o benzeno, o tolueno e o p-xileno. Neste trabalho, verificou-se a adsorção dos mesmos sobre carvão ativado via simulação computacional. Como base, utilizou-se o modelo postulado de carvão preparado por Bourke et al. (2007). Várias etapas foram concluídas desde os modelos das estruturas do carvão e dos poluentes até as simulações de dinâmica molecular. Para a análise conformacional da estrutura do carvão, foi utilizado o método semi-empírico PM3 e para o processo de dinâmica, o campo de força AMBER FF99SB. A estrutura passou por um aquecimento, à pressão constante, até alcançar uma temperatura final de 298K (25ºC), sendo suas informações coletadas a cada 50ps. Posteriormente, a estrutura foi submetida a equilíbrio de sistema, à temperatura constante de 298K (25ºC), por 500ps para então suas informações serem analisadas. Por fim, o sistema foi então submetido à dinâmica molecular durante 15 ns. Após análise dos resultados, constatou-se que os grupos éter, lactona e carbonila (cetona) presentes na estrutura de carvão ativado conferem caráter ácido à mesma e devido a isto e à sua consequente carga superficial negativa, a adsorção tornou-se viável uma vez que os poluentes apresentavam carga superficial positiva, o que corrobora o entendimento que já se tem a respeito desse tipo de fenômeno.
Resumo:
O primeiro estágio de processamento da informação do estímulo visual consiste na contagem de fótons pelas células fotorreceptoras. Nos estágios pós-receptorais a informação de intensidade absoluta do estímulo é transformada em comparações de informações provindas de áreas adjacentes da retina e momentos sucessivos. Essa métrica implementada pelo sistema visual para quantificar o estímulo é chamada de contraste - contraste espacial ou simultâneo e contraste temporal ou sucessivo. A presença de contraste é essencial para a geração de percepção visual consciente no domínio do espaço e do tempo e em três dimensões ortogonais de cores - branca e preta; azul e amarela; verde e vermelha. Uma curva em forma de sinodelimita os limiares de detecção de contraste em função da frequência especial ou temporal do estímulo. Ela é chamada função de sensibilidade ao contraste e é afetada por uma série de fatores ópticos e neurais. Neurônios de diferentes classes contribuem para regiões diferentes da função de sensibilidade ao contraste e suas atividades representam as ações de vias de processamento visual que se estendem da retina ao córtex visual. Investigações básicas e clínicas têm dado suporte à importância do estudo da sensibilidade ao contraste espacial de luminância (branco e preta) como uma ferramenta indicadora da função visual em sujeitos normais e afetados por disfunções neuro-oftalmológicas.
Resumo:
Pós-graduação em Engenharia Mecânica - FEG
Resumo:
Esta obra parte do pressuposto de que os processos de mudança tecnológica dependem não só das iniciativas de inovação promovidas pelas empresas, mas de diversos outros fatores que as sustentam. E por terem um caráter sistêmico, esses fatores coevoluem com o ambiente em que estão inseridos. A partir dessa visão, o economista Lourenço Galvão Diniz Faria analisa as dimensões do Sistema Setorial de Inovação (SSI) do setor automotivo - a demanda, o regime tecnológico e a base de conhecimento, os atores e as instituições envolvidas. Por meio de uma análise multidimensional, o autor busca compreender de que forma essas dimensões se relacionam entre si e definem os movimentos de todo o sistema. São apresentadas questões teóricas em torno dos processos de inovação e sua importância para a competitividade das empresas e o crescimento econômico. Também se discute o conceito de sistemas de inovação. No capítulo final do livro, o autor aplica a metodologia do SSI ao setor automotivo nos últimos dez anos, possibilitando uma visão sobre as diversas mudanças pelas quais o sistema vem passando, como a incorporação da microeletrônica aos automóveis, o investimento em alternativas de propulsão e as alterações na relação entre montadoras e determinados tipos de fornecedores, o que tem levado a um regime de coparticipação no desenvolvimento dos veículos. O livro demonstra, enfim, o significativo crescimento da complexidade e do dinamismo do SSI na fabricação de automóveis
Resumo:
Pós-graduação em Design - FAAC
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
The indexing policy must be represented by means of a philosophy that reflects the system's aims. One of the aspects concerning the indexing policy is relating to the data retrospective conversion. The general aim is to discuss and make a profound study on indexing policy guidelines and to analyze the elements to set up an indexing policy, that should direct the indexing procedures carried out in university libraries using the methodology of verbal protocol. The results demonstrate that the indexing policy serves as a support for the knowledge organization in the catalog, acting as a guide for the librarian when determining the subjects of the documents described in the records. It is concluded that the indexing only will be carried out in the university library during the documentary information treatment by means of a well determined policy.
Resumo:
This paper discusses some of the general foundations of my philosophical journey, from studies, researches and reflections on the sciences and Genetic Epistemology, to the proposal of a speculative idealist metaphysics and ontology. I initially introduce the notion of a system of human beings and their behavior, in order to contextualize the discussion of one of the central questions of the paper: how can the system of human beings and their behavior be comprehended? I then make some general considerations about Genetic Epistemology and Psychology, and analyze the consequences of the thesis inherent in them that the object is an essentially intellectual being. Next, I consider the possibility of a different perspective on the Theory of Knowledge. This leads to the question “how are the different philosophic systems possible?” and to the necessity of the constitution of a philosophy that is able to deal with this question from a viewpoint of totality and on the basis of a thought able to think itself. I then make some considerations on the establishment of such a philosophy in regard to genetic epistemology, and introduce the notion of idea. Finallly, a general research project is proposed (that this paper only announces) that aims to use some concepts and arguments inspired by Hegelian Speculative Philosophy (or related to it) in order to comprehend the system of human beings and their behavior, especially in the production scenario of contemporary science and philosophy, including Genetic Epistemology. I hope I have contributed to showing that another philosophical view (distinct from Piagetian naturalism) is at least possible, one that takes into account the experimental data of Genetic Epistemology and Psychology.
Resumo:
The objective of this paper is to introduce a model, called the Model of the System of Schemes of Actions and Operations on Symbols and Signs (MoSSAOSS), that articulates a systemic, systematic, and synthetic view of some of the principal theoretic and experimental results obtained by Piaget and his coworkers. Here, the term model means a schematic representation of experience, the relation of whose elements can be explored by means of logic and mathematics in order to deduce properties that correspond, in a sufficiently accurate form, to direct observable empirical properties. The MoSSAOSS model is intended to reveal in an abstract and simplified form, and through explicit hypothesis and definitions, the general structure and function of the System of Schemes of Actions and Operations on Symbols and Signs. It is this system that furnishes the elements that make possible the diverse structures necessary for the knowledge of the epistemic subject, the subject of knowledge, the stages in their construction, and the attribution of significations to objects, to situations, and to the actions and operations of the subject itself.