1000 resultados para Classificação Automática de Modulação. Correntropia. Rádio Cognitivo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta é uma pesquisa piagetiana clássica que se insere na trilha aberta por Emília Ferreiro na área da psicogênese da alfabetização. A questão central investigada é a de saber qual o conhecimento que os adultos nãoalfabetizados possuem do sistema de escrita. Foram entrevistados 35 sujeitos utilizando o método piagetiano de interrogatório clínico. o material empregado estava composto por cupom fiscal de supermercado, bilhete de loteria, calendário, conta de luz, receita médica, nota fiscal padrão, fotos do meio urbano, recortes de revistas, desenhos com legendas, impressos padronizados de anúncios (do tipo "vende-se" , "aluga-se", "é proibido fumar", Solicitava-se o reconhecimento de classificação de textos "legíveis", palavra e da oração, interpretação de textos acompanhados ou não de imagem, realização de cálculos mentais e produção de escrita. Verificou-se que, embora não haja ainda uma compreensão global do funcionamento do sistema alfabético de escrita, os adultos não-alfabetizados apresentam conceitos etc.), entre outros. letras e números, análise ao nível da emissão verbal, passando por aquele que atribui uma letra para cada macro-partição da emissão verbal (sílaba), até o mais aprimorado que detecta então os elementos mínimos da emissão (fonemas) e trata de fazer a correspondência entre letras e fonemas. Este último nível desvenda o modo pelo qual que correspondem a níveis progressivos de desenvolvimento cognitivo. Esses níveis vão desde aquele que ainda não estabeleceu um vínculo entre a escrita e a pauta sonora da pesquisas com crianças pré-alfabetizadas verifica-se que nas há uma identidade estrutural entre crianças e adultos na forma de se apropriar do conhecimento do modo de funcionamento da língua escrita. Os adultos não apresentam as noções mais primitivas manifestadas pelas crianças pois possuem uma boa distinção entre letras e números, Conquistaram a possibilidade de realizar cálculos mentais, compreendem melhor a importância das segmentações do texto, não agridam nomes semanticamente relacionados para interpretar "sobras de texto" na análise de orações, etc. A pesquisa contribui para um melhor entendimento do processo de aprendizagem da leitura e escrita e pode ser utilizada para uma analise crítica dos métodos pedagógicos tradicionais de alfabetizal;ão de adultos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O nucleosídeo Guanosina (GUO) já foi descrito como capaz de estimular a captação de glutamato em cultura de astrócitos. A proposta deste estudo foi determinar o efeito e a especificidade das purinas, derivadas da guanina ou da adenina, na captação de glutamato e GABA em cultura de astrócitos. A estimulação da captação de glutamato foi observada quando usamos GUO, GMP e GTP. Quando utilizamos os derivados de Guanina simultaneamente não observamos efeito aditivo. Nós também investigamos se interconversões entre as purinas derivadas da guanina têm influência no efeito observado. O efeito do GTP foi preliminarmente descartado já que seu análogo GMP-PNP não estimulou a captação de glutamato. Quando utilizamos um inibidor da ecto-5’-nucleotidase, o efeito do GMP na captação de glutamato desaparece e não houve interferência no efeito da GUO. Assim, esses resultados sugerem que a GUO é o derivado da guanina responsável pelo efeito na captação de glutamato. Ao mesmo tempo, os derivados da adenina não são capazes de estimular a captação de glutamato. Além disso, a captação de GABA não foi afetada pela guanosina. Dessa forma, nossos resultados indicam uma especificidade na interação entre GUO e a captação astrocitária de glutamato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um programa para cálculo de campos eletromagnéticos baseado no método das Diferenças Finitas no Domínio do Tempo (FDTD). Este programa é aplicado no cálculo da Taxa de Absorção Específica (SAR) na cabeça de um usuário de transceptores portáteis como os telefones celulares. Como introdução ao problema é realizada uma revisão dos efeitos biológicos e das recomendações para a exposição humana a radiofreqüências e microondas. Os principais resultados obtidos com simulações realizadas com o programa desenvolvido. São mostrados e comparados com os resultados simulados e medidos por outros autores, assim como com as recomendações nacionais e internacionais. A título de recomendação final e como alternativa visando minimizar os riscos que a absorção do campo pode representar para a saúde dos usuários, é proposta a utilização de antenas que emitem mais no sentido oposto à cabeça. Este conceito é testado com o desenvolvimento de uma antena simples em microstrip.