1000 resultados para Sensores inteligentes
Resumo:
O estudo das propriedades mecânicas dos solos estruturados necessita de equipamentos de laboratório com características específicas. No caso de ensaios triaxiais, os equipamentos devem incorporar técnicas especiais, tais como: medição local de deformações e controle automático de trajetórias de tensão. Caso o solo seja ensaiado na condição não saturada, o equipamento deve ser capaz de controlar a sucção imposta ao corpo de prova. Esta dissertação apresenta a montagem de um equipamento triaxial automatizado para o estudo de solos estruturados, saturados e não saturados, sendo que para a execução de ensaios com diferentes trajetórias de tensões, pequenas modificações devem ser introduzidas no programa. O equipamento foi montado com peças encontradas no mercado nacional e de fácil aquisição. Este equipamento dispõe de medição local de deformações baseada em sensores de efeito Hall, com uma resolução de deformações axiais e radiais da ordem de 10-4. O equipamento utiliza um sistema de válvulas proporcionais para o controle automático das pressões aplicadas. O equipamento assim construído, foi utilizado para estudar o comportamento mecânico de um solo residual de arenito Botucatu oriundo de uma jazida na rodovia RS 239. Este solo apresenta um índice de vazios médio de 0,62. Envoltórias de resistência ao cisalhamento para valores de pico e para valores de deformações axiais >10%, foram determinadas a partir de resultados de ensaios triaxiais. Os resultados dos ensaios também permitiram identificar uma superfície de fluência. O efeito da cimentação, tanto na superfície de fluência como no módulo de Young, foi constatado através da análise das curvas tensão desvio x deformação axial, que mostram claramente uma mudança de comportamento associada à progressiva desestruturação do material.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
Sistemas de controle industriais precisam atender a requisitos temporais para garantir seu correto funcionamento, sendo por isto considerados sistemas tempo-real. Quando tais sistemas são distribuídos, tais como redes de sensores, atuadores e controladores interligados por barramentos de campo, a comunicação desempenha um papel importante no comportamento temporal. Este trabalho propõe uma ferramenta para validar o comportamento temporal da comunicação em um protocolo de barramento de campo, o Foundation Fieldbus. A proposta inclui a especificação de requisitos e a visualização da validação. Pretende-se auxiliar a compreensão do comportamento temporal e possibilitar a depuração de sistemas tempo-real distribuídos. O sistema desenvolvido encontra-se operacional e foi validado em diversos estudos de caso, os quais são descritos no presente trabalho.
Resumo:
Esta dissertação situa-se no projeto de pesquisa intitulado "Um Modelo Computacional de Aprendizagem a Distância Baseada na Concepção Sócio- Interacionista". Este projeto se enquadra na visão de aprendizagem situada, isto é, na concepção de cognição como uma prática social baseada na utilização de linguagem, símbolos e signos. O objetivo é a construção de um ambiente de Educação a Distância, implementado como um sistema multiagente composto por agentes artificiais e agentes humanos, inspirando-se na teoria sócio-interacionista de Vygotsky. Nesta sociedade, todos os personagens (aprendizes e agentes artificiais) são modelados como agentes sociais integrados em um ambiente de ensino-aprendizagem. A arquitetura deste sistema é formada pelos seguintes agentes artificiais: agente diagnóstico, agente mediador, agente colaborativo, agente semiótico e agente social. Os agentes humanos que interagem com o sistema desempenham o papel de tutores, aprendizes ou ambos. Esta dissertação visa à concepção e à implementação de um dos agentes desta arquitetura: o agente semiótico. Esta concepção foi baseada na Engenharia Semiótica, em particular para a apresentação do material instrucional utilizado no processo de ensinoaprendizagem.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.
Resumo:
Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.
Resumo:
Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.
Resumo:
Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.
Resumo:
Com a proliferação de computadores pessoais e a popularização da Internet, as novas tecnologias da comunicação começam a provocar impactos no setor educacional, com a promessa de construção de cenários inovadores, apoiados em diferentes formas de educação baseada na Web. Estas inovações tecnológicas aplicadas ao ensino caracterizam a intensificação dos processos de educação à distância como uma das tendências mais marcantes desse final de milênio. A tendência destas inovações é crescer e juntamente com a Internet contribuir para a melhoria do ensino e/ou aprendizagem a distância. A Educação à Distância (EAD) tem sido um termo usado para qualquer forma de estudo em que os alunos não estejam em contato direto com seu professor. Este tipo de ensino pode ser considerado como uma alternativa educacional capaz de propiciar a ampliação de oportunidades educativas, através de programas de qualidade. Atualmente, para desenvolver ambientes para o ensino a distância são utilizados os conceitos de Inteligência Artificial Distribuída, mais precisamente o conceito de sistemas multiagentes, com a finalidade de aprimorar e monitorar o ensino através da Internet. O sistema AME-A proposto por D’Amico é um exemplo de ambiente que utiliza a tecnologia de multiagentes. Ele é constituído de vários agentes inteligentes que atuam de forma concorrente e comunicam-se através de mensagens. Dessa maneira, transformam o sistema em um conjunto de agentes cooperantes em busca de um objetivo que é o de ensinar e/ou aprender. Este trabalho tem como objetivo utilizar o estudo e a abordagem de modelagem do sistema de ensino/aprendizagem definido por D’Amico no que se refere ao agente ferramentas para o professor. Propõe-se a desenvolver uma ferramenta que irá auxiliar o professor na distribuição de seus conhecimentos na Internet, armazenando as informações inseridas pelo professor bem como fornecer orientações a respeito de determinadas operações que o sistema realiza. Estas orientações também apresentam como foco os seguintes fatores: descrição da importância da motivação e interatividade num curso a distância, sugestões de metodologias de ensino que o professor pode usar nas suas aulas, orientações a respeito de avaliação do aprendizado do aluno, dicas sobre conteúdos de materiais complementares às aulas e por fim, menciona exemplos de ferramentas em modo texto e multimídia que podem ser utilizadas para comunicação.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.