983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

No cenário atual, onde a globalização, aliada a um maior nível de exigência por parte do cliente, impõem às empresas um maior empenho por competitividade, a agdidade no desenvolvimento e otimização de produtos torna-se crucial para a sobrevivência das mesmas no mercado. Neste contexto, procurou-se compilar várias técnicas utilizadas em E n g e h dd Qd& em um método integrado para a Ot+o Expmmid de MWtwa. Essas técnicas fornecem resultados muito mais rápidos e econômicos do que a tradicional prática de variar um componente de cada vez na mistura, devido ao menor número de ensaios necessários. Entretanto, apesar de não serem tão recentes, as ferramentas aplicáveis à otimização de misturas não têm sido utilizadas pelo seu maior beneficiário (a indústria), provavelmente por falta de divulgação de sua existência, ou, principalmente, devido à complexidade dos cálculos envolvidos. Dessa forma, além do método proposto, desenvolveu-se também um sofiwa~q ue irnplementa todas os passos sugeridos, com o intuito de facilitar ainda mais a aplicação dos mesmos por pessoas não especializadas em técnicas estatísticas. Através do software (OptiMix), o método foi testado em uma situação real e em um estudo comparativo com um relato da literatura, a fim de testar sua validade, necessidade de adaptações e consistência dos resultados. A avaliaçio dos estudos de caso demonstrou que o método proposto fornece resultados coerentes com os de outras técnicas alternativas, com a vantagem de o usuário não precisar realizar cálculos, evitando assim, erros e agilizando o processo de otimização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho se propõe a ler os romances O Guarani, Iracema e Ubirajara, de José de Alencar, como um conjunto alegórico, coeso, que firma uma proposição de brasilidade, única dentro do nosso Romantismo. Buscam-se dentro do texto alencariano o percurso dos elementos que formam as alegorias da impossibilidade brasílica, que tornam a fundação da nação algo improvável, e seu processo identitário eterno e incompleto. Para tanto, centra-se a análise na impossibilidade de união dos pares opostos de heróis, fator que inviabiliza a junção de suas culturas, as quais poderiam se transformar em algo caracteristicamente brasileiro. Essa fusão não se efetiva porque uma série de códigos não é cumprida pelos partícipes das narrativas, o que causa a ruptura e a derrocada do sistema que poderia levar ao surgimento de uma nação. A perfeita confluência ocorre em Ubirajara, e se verá como isso se revela a culminância da proposta para uma mitologia brasílica, um modelo comportamental produtor de um efeito que, no caso d´O Guarani e de Iracema, não se realiza pelos erros dos personagens. Essa proposta de leitura considera, então, esse conjunto alegórico como mítico, e não histórico, mostrando que José de Alencar, sabedor da ainda nascente pátria, representou em sua ficção suas idéias sobre a brasilidade, ao invés de construir um “Brasil”. Ergue sua visão de algo nunca pronto, de uma busca constante, mantida pela nostalgia do que poderia ter-se sido e pela esperança de tornar-se o que não se é.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma investigação do uso de estratégias comunicativas (ECs) em textos narrativos produzidos por doze universitários brasileiros aprendizes de francês como língua estrangeira. Foi utilizada a tipologia de Yule (1997) de ECs para análise dos dados levantados nas produções textuais produzidas a partir de três histórias em quadrinhos sem textos seguidas de entrevistas nas quais os aprendizes puderam expressar livremente suas reflexões sobre o seu processo de escrita. As mesmas tarefas foram aplicadas a três falantes nativos de francês cujas produções foram utilizadas como elemento de comparação e licitação dos desempenhos dos aprendizes. As hipóteses iniciais eram as seguintes: os aprendizes preocupam-se com a correção quando escrevem, utilizam diferentes ECs de acordo com a sua proficiência e têm consciência de que utilizam alguma estratégia compensatória para evitar erros quando escrevem. Os dados fornecidos pelos alunos ilustraram as hipóteses iniciais sugerem uma relação entre o tipo de tarefa, as dificuldades que esta oferece e as ECs escolhidas pelos aprendizes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dificuldade de identificação e a existência de erros na marcação dos pontos cefalométricos são discutidas na literatura. Por isso, o objetivo deste estudo foi verificar reprodutibilidade dos valores das medidas cefalométricas, apresentados nos cefalogramas realizados por três clínicas de radiologia odontológica. Para tanto, foram selecionadas 40 telerradiografias laterais, sendo todas enviadas, em momentos diferentes, para 3 clínicas que realizaram a análise cefalométrica, portanto obteve-se 3 cefalogramas de cada radiografia, totalizando 120 análises. Através da técnica ANOVA verificou-se que dos 32 fatores avaliados apenas o S-N.A, S-N.Ocl, /1-Npog, H.(N-B) não apresentaram diferença de valores estatisticamente significativa na comparação entre as 3 clínicas (p > 0,05). A partir dos resultados encontrados, concluiu-se que as diferenças nos valores existem e são significativas para a maioria dos fatores. Essa informação é extremamente importante, pois essas diferenças podem influir na tomada de decisão em um planejamento ortodôntico ou cirúrgico ortognático dependendo da clínica que realizou a análise cefalométrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata-se de um estudo de caso (com um sujeito) sobre o processo de aquisição de inglês como língua estrangeira na fase pré-escolar. O objetivo é verificar como uma criança nessa faixa etária – ainda não alfabetizada – desenvolve sua produção oral nessa língua estrangeira, recebendo uma aula semanal de inglês em sua escola e treinando com os pais em casa. A produção oral do sujeito foi registrada em aula e em casa através de filmagens e gravações em áudio. Seus pais e professoras foram entrevistados. A maioria das informações – colhidas entre março de 1999 e dezembro de 2000 – foram analisadas qualitativamente. A pesquisa revela que, antes dos seis anos de idade, o ensino de língua estrangeira envolve riscos. Quando a professora é especialista na língua, mas não tem experiência com educação infantil, a criança pode desenvolver aversão à língua estrangeira por não gostar das aulas. Por outro lado, quando a professora proporciona aulas prazerosas e lúdicas, mas comete erros de pronúncia ou estrutura gramatical, a criança tende a valorizar o que é ensinado como verdade. Em ambos os casos, o futuro escolar da criança poderá ficar comprometido em relação à língua estrangeira. Portanto, é menos arriscado não ter aula de inglês na infância do que ter aula com um profissional que não seja qualificado em educação infantil e na língua estrangeira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.