1000 resultados para Indexação automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El Mecanismo Semántico aplicado a la documentación automática, es un esquema matemático que unifica diferentes aspectos del Reconocimiento de Formas, Lenguajes Formales y Diagnóstico Automático. Sin embargo se presenta sólo el Mecanismo proyectado en su aplicación al problema de la Clasificación e Interpretación Automática de Documentos. Se señalan las causas de esta delimitación. Por otro lado se tratan los siguientes puntos: en primer lugar se presenta un modelo para un posterior desarrollo, que introduce la noción de proyectividad de una manera natural en el concepto de diccionario, fundamental en la Lingüística matemática. En segundo lugar se analiza el teorema 2.10, de gran interés en cuestiones relacionadas con los algoritmos paralelos. En este mismo punto se define un modelo aplicable a diversos modelos analíticos lingüísticos. En tercer lugar se presenta un modelo que contiene, como caso particular, el algoritmo de Ferrari. Y por último se aplica el mecanismo a la clasificación de los documentos, previa interpretación de los conceptos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Análisis de la problemática en torno a la producción automática de resúmenes de textos y artículos. Pese a los adelantos en tecnologías de la información, la producción de abstractos de alta calidad todavía tiene que hacerse manualmente. Esto representa un alto coste para numerosas empresas como editoriales. Como alternativas a la producción manual de abstractos tenemos el que los abstractos sean preparados por los propios autores como prerrequisitos a la publicación de sus artículos, o mecanizar su producción. Se describe una técnica nueva para producir automáticamente resúmenes. Primero se repasan las funciones de un resumen, que son: anunciamiento, filtrado, sustitución, y búsqueda retrospectiva. Posteriormente se realiza una tipología de resúmenes: indicativo, informativo, crítico y extractos. Además, los abstractos que producimos automáticamente se caracterizan por: una dimensión aproximada del 10 por 100 del original; se utiliza en el abstracto la misma terminología del original, es decir, producimos extractos con la misma fraseología escrita por el autor; se procura excluir en el extracto datos numéricos, expresiones cardinales o sentencias de un valor indefinido; y se evita incluir en el extracto observaciones preliminares, citaciones, notas al pie de página etc. Se analizan algunos de los métodos empleados para la producción de textos automáticamente, como el método de colocación, el método de sugestión, el método de titulación, las referencias intercruzadas de frases, los criterios de frecuencia y la existencia de un diccionario previo con términos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monográfico con el título: 'Avances tecnológicos digitales en metodologías de innovación docente en el campo de las Ciencias de la Salud en España'. Resumen basado en el de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contiene : 1-Grupo de automática industrial y telemática : memoria final, 2- Un disquete y 3- Apuntes básicos sobre DELPHI (este dossier de lenguaje de programación ha sido realizado individualmente por uno de los profesores). Premio a la Innovación Educativa, 1996-97. Anexo Memoria en C-Innov. 93

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aquest text pretén ser una guia útil per als estudiants dels Graus en Enginyeria Mecànica, en Enginyeria electrònica Industrial i Automàtica, i en Enginyeria Elèctrica. El document s’estructura en vuit temes organitzats en tres blocs. El primer bloc és una introducció a les propietats magnètiques dels materials i les seves aplicacions. El segon bloc versa sobre les propietats elèctriques dels materials i, finalment, el tercer bloc és una breu descripció de la superconductivitat. Per a cada tema s’estableixen les competències específiques que s’han d’assolir, es desenvolupen de forma esquemàtica els continguts i s’adjunten exemples resolts de problemes. Al final de cada tema s’inclou un resum dels continguts i al final de cada bloc una col·lecció de qüestions i problemes. Aquests apunts pretenen ser una breu recopilació dels continguts bàsics de l’assignatura. Al final dels apunts, trobareu una bibliografia recomanada per tal de desenvolupar exhaustivament la matèria

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de este trabajo de investigación se pretende diseñar un proceso de devolución automática de los saldos a favor de Impuesto a la Renta de personas naturales en relación de dependencia, sin la necesidad de que el contribuyente presente una petición o reclamo de los valores pagados en exceso o indebidamente; esta propuesta pretende que la Administración Tributaria pueda brindar nuevas alternativas para la devolución de saldos a favor de Impuesto a la Renta, realizando controles previos y que la devolución de los valores no constituyan un riesgo para la Administración. Se hace necesario en primera instancia una evaluación de la normativa legal y los procedimientos actuales que regulan la devolución de Impuesto a la Renta y en función de llevar a cabo esta propuesta es necesaria la utilización y aplicación de conceptos de reingeniería de procesos que permitirán mejoras sustanciales en la atención de este tipo de devoluciones. Con el desarrollo de esta propuesta se pretende mejorar, ampliar, integrar y validar la información que se obtiene de los contribuyentes y de sus agentes de retención; disminuir los costos directos e indirectos en los que la Administración Tributaria incurre para poder responder la atención de las solicitudes de pago indebido y en exceso de Impuesto a la Renta; y a su vez permitirá brindar a los contribuyentes un servicio más eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A temática da produção técnico-científica dos pesquisadores da FEPAGRO, no período de 1990 a 1998, é analisada utilizando-se procedimentos metodológicos baseados na combinação de princípios quantitativos e qualitativos. Em processo semelhante, é estabelecida a combinação das técnicas de indexação humana e automática para aferição da temática abordada. O referencial teórico que apóia o estudo situa as atividades inerentes à ciência, a comunidade científica, a literatura proveniente dessas atividades, a avaliação da ciência como base para a elaboração de indicadores de desenvolvimento socioeconômicos, e insere a pesquisa agropecuária no cenário técnico-científico, dimensionando a sua contribuição à sociedade. Os resultados alcançados identificam as facilidades e barreiras para a divulgação da produção intelectual dos pesquisadores, e a consonância dessa produção com as diretrizes de pesquisa estabelecidas pela Instituição. Apontam-se alternativas possíveis para a superação das limitações encontradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".