991 resultados para Extração semi-automática


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A Internet possui inúmeros tipos de documentos e é uma influente fonte de informação.O conteúdo Web é projetado para os seres humanos interpretarem e não para as máquinas.Os sistemas de busca tradicionais são imprecisos na recuperação de informações. Ogoverno utiliza e disponibiliza documentos na Web para que os cidadãos e seus própriossetores organizacionais os utilizem, porém carece de ferramentas que apoiem na tarefa darecuperação desses documentos. Como exemplo, podemos citar a Plataforma de CurrículosLattes administrada pelo Cnpq.A Web semântica possui a finalidade de otimizar a recuperação dos documentos, ondeesses recebem significados, permitindo que tanto as pessoas quanto as máquinas possamcompreender o significado de uma informação. A falta de semântica em nossos documentos,resultam em pesquisas ineficazes, com informações divergentes e ambíguas. Aanotação semântica é o caminho para promover a semântica em documentos.O objetivo da dissertação é montar um arcabouço com os conceitos da Web Semânticaque possibilite anotar automaticamente o Currículo Lattes por meio de bases de dadosabertas (Linked Open Data), as quais armazenam o significado de termos e expressões.O problema da pesquisa está baseado em saber quais são os conceitos associados à WebSemântica que podem contribuir para a Anotação Semântica Automática do CurrículoLattes utilizando o Linked Open Data (LOD)?Na Revisão Sistemática da Literatura foi apresentado conceitos (anotação manual, automática,semi-automática, anotação intrusiva...), ferramentas (Extrator de Entidade...)e tecnologias (RDF, RDFa, SPARQL..) relativas ao tema. A aplicação desses conceitosoportunizou a criação do Sistema Lattes Web Semântico. O sistema possibilita a importaçãodo currículo XML da Plataforma Lattes, efetua a anotação automática dos dadosdisponibilizados utilizando as bases de dados abertas e possibilita efetuar consultas semânticas.A validação do sistema é realizada com a apresentação de currículos anotados e a realizaçãode consultas utilizando dados externos pertencentes ao LOD. Por fim é apresentado asconclusões, dificuldades encontradas e proposta de trabalhos futuros.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O problema que justifica o presente estudo refere-se à falta de semântica nos mecanismos de busca na Web. Para este problema, o consórcio W3 vem desenvolvendo tecnologias que visam construir uma Web Semântica. Entre estas tecnologias, estão as ontologias de domínio. Neste sentido, o objetivo geral desta dissertação é discutir as possibilidades de se imprimir semântica às buscas nos agregadores de notícia da Web. O objetivo específico é apresentar uma aplicação que usa uma classificação semi-automática de notícias, reunindo, para tanto, as tecnologias de busca da área de recuperação de informação com as ontologias de domínio. O sistema proposto é uma aplicação para a Web capaz de buscar notícias sobre um domínio específico em portais de informação. Ela utiliza a API do Google Maps V1 para a localização georreferenciada da notícia, sempre que esta informação estiver disponível. Para mostrar a viabilidade da proposta, foi desenvolvido um exemplo apoiado em uma ontologia para o domínio de chuvas e suas consequências. Os resultados obtidos por este novo Feed de base ontológica são alocados em um banco de dados e disponibilizados para consulta via Web. A expectativa é que o Feed proposto seja mais relevante em seus resultados do que um Feed comum. Os resultados obtidos com a união de tecnologias patrocinadas pelo consórcio W3 (XML, RSS e ontologia) e ferramentas de busca em página Web foram satisfatórios para o propósito pretendido. As ontologias mostram-se como ferramentas de usos múltiplos, e seu valor de análise em buscas na Web pode ser ampliado com aplicações computacionais adequadas para cada caso. Como no exemplo apresentado nesta dissertação, à palavra chuva agregaram-se outros conceitos, que estavam presentes nos desdobramentos ocasionados por ela. Isto realçou a ligação do evento chuva com as consequências que ela provoca - ação que só foi possível executar através de um recorte do conhecimento formal envolvido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi desenvolver um estudo morfológico quantitativo e qualitativo da região da sínfise mandibular (SM), através da construção de modelos tridimensionais (3D) e avaliar o seu grau de associação com diferentes classificações de padrões faciais. Foram avaliados 61 crânios secos humanos de adultos jovens com oclusão normal, com idade entre 18 e 45 anos e dentadura completa. Tomografias computadorizadas de feixe cônico (TCFC) de todos os crânios foram obtidas de forma padronizada. O padrão facial foi determinado por método antropométrico e cefalométrico. Utilizando o critério antropométrico, tomando como referência o índice facial (IF), o padrão facial foi classificado em: euriprósopo (≤84,9), mesoprósopo (85,0 - 89,9) e leptoprósopo (≥90,0). Pelo critério cefalométrico, o plano mandibular (FMA) determinou o padrão facial em curto (≤21,0), médio (21,1 - 29,0) e longo (≥29,1); e o índice de altura facial (IAF) classificou a face em hipodivergente (≥0,750), normal (0,749 - 0,650) e hiperdivergente (≤0,649). A construção de modelos 3D, representativos da região da SM, foi realizada com o auxílio do software ITK-SNAP. Os dentes presentes nesta região, incisivos, caninos e pré-molares inferiores, foram separados do modelo por técnica de segmentação semi-automática, seguida de refinamento manual. Em seguida, foram obtidos modelos 3D somente com o tecido ósseo, possibilitando a mensuraçãodo volume ósseo em mm3 (VOL) e da densidade radiográfica, pela média de intensidade dos voxels (Mvox). No programa Geomagic Studio 10 foi feita uma superposição anatômica dos modelos 3D em bestfit para estabelecer um plano de corte padronizado na linha média. Para cada sínfise foi medida a altura (Alt), a largura (Larg) e calculado o índice de proporção entre altura e largura (PAL). A avaliação da presença de defeitos alveolares foi feita diretamente na mandíbula,obtendo-se a média de todas as alturas ósseas alveolares (AltOss) e a média da dimensão das deiscências presentes (Medef). O índice de correlação intra-classe (ICC) com valores entre 0,923 a 0,994,indicou alta reprodutibilidade e confiabilidade das variáveis medidas. As diferenças entre os grupos, determinados pelas classificações do padrão facial (IF, FMA e IAF), foram avaliadas através da análise de variância (oneway ANOVA) seguida do teste post-hoc de Tukey. O grau de associação entre o padrão facial e as variáveis Vol, Mvox, PAL, Alt, Larg, AltOss e Medef foi avaliado pelo coeficiente de correlação de Pearson com um teste t para r. Os resultados indicaram ausência de diferença ou associação entre o volume, densidade radiográfica e presença de defeitos alveolares da SM e o padrão facial quando determinado pelo IF, FMA e IAF. Verificou-se tendência de SM mais longas nos indivíduos com face alongada, porém a largura não mostrou associação com o padrão facial. Estes resultados sugerem que as classificações utilizadas para determinar o padrão facial não representam satisfatoriamente o caráter 3D da face humana e não estão associadas com a morfologia da SM.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tese de doutoramento, Informática (Bioinformática), Universidade de Lisboa, Faculdade de Ciências, 2015

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta ponencia explica el trabajo realizado hasta la fecha en la extracción semi-automática de metadatos geoespaciales dentro de la plataforma cliente gvSIG. Mostramos el ciclo completo de extracción parcial de la fuente de datos, la adición de elementos subjetivos a través de un editor integrado en gvSIG, y la publicación semiautomática de los metadatos, en formatos estándares, a un servicio de catálogo basado en GeoNetwork. Posteriormente hablamos de la nueva versión del gestor de metadatos, que se ajusta a una nueva arquitectura interna de gvSIG. Cerramos con ideas para llegar a capturar más metadatos de forma implícita, objeto de futuras fases del proyecto

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral, enmarcada en el área de la Enseñanza Asistida por Ordenador, está relacionada con el desarrollo de materiales didácticos, para facilitar la ejecución en los procesos educativos basados en e-Learning. El objetivo general de la tesis es definir un marco conceptual para herramientas de autoría que ayuden a los profesionales encargados del desarrollo a afrontar el proceso y a obtener materiales didácticos caracterizados por su potencial de reutilización y por servir como soportes efectivo a los procesos educativos en los que serán utilizados. El método utilizado está compuesto por cinco pasos: entrada de requisitos, selección de recursos, composición, evaluación y generación de anotaciones semánticas. Estos pasos utilizan las respuestas de los desarrolladores a un conjunto de preguntas sobre los requerimientos del material que son descritos utilizando un conjunto mínimo de elementos del modelo. Los algoritmos definidos para los cinco pasos del método permiten definir guías y mecanismos pueden ayudar a los desarrolladores en la elección de cuál es el procedimiento que deben seguir durante la etapa de selección de acuerdo con sus necesidades específicas; guías y mecanismos para la agregación e integración de los recursos en la estructura del material durante la etapa de composición; mecanismos que permiten llevar a término la evaluación del material obtenido en relación con su utilidad pedagógica y la usabilidad de su interfaz, además de facilitar las labores de rediseño en aquellos casos en que dichas cualidades no sean las adecuadas para que el material sirva de soporte efectivo a un determinado proceso educativo. La capacidad del modelo para describir de forma general y clasificar los materiales fue contrastada por medio del conjunto de pruebas realizadas con una ontología basada en el modelo y un razonador. La capacidad del método para guiar el proceso de desarrollo y la adecuación de las soluciones ofrecidas a las etapas del desarrollo: selección y composición fue comprobada en el análisis de los resultados de las encuestas de evaluación de cuatro casos prácticos en los que se utilizó el método mencionado. En este estudio se han utilizado herramientas como: RELOAD [108], CopperAuthor [49], Aloha [7]y OLAT QTI Editor [90]. Estas herramientas tienen en común la implementación técnica y exitosa de los siguientes estándares o especificaciones e-Learning: IMS LD, IMS LOM, IMS QTI o ADL SCORM. El marco conceptual propuesto por esta tesis organiza y ofrece soporte para la ejecución de las diferentes etapas del desarrollo de materiales didácticos que son potencialmente reutilizables y sirven de soporte efectivo a un determinado proceso educativo. Al analizar la generalidad de la solución propuesta se observan dos posibles tipos de su aplicación: la primera, en el desarrollo de materiales didácticos en dominios de conocimientos diferentes a Ciencias de la Computación y la segunda, en la Web Semántica para el desarrollo de artefactos estructurados de cualquier dominio de aplicación. La primera forma de aplicación será posible en los siguientes dominios: Ingeniería de Computadores, Ingeniería del Software, Sistemas de Información y Tecnologías de Información puesto son disciplinas similares al domino utilizado en la solución. La segunda forma de aplicación de la solución propuesta puede ser en la Web Semántica para obtener de manera automática o semi-automática artefactos software cuyas características generales y estructura pueda ser descritas o modeladas en formato XML.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Spatial-temporal dynamics of zooplankton in the Caravelas river estuary (Bahia, Brazil). The survey was conducted in order to describe the zooplankton community of the estuary Caravelas (Bahia, Brazil), to quantify and relate the patterns of horizontal and vertical transport with the type of tide (neap and spring) and tidal phase (flood and ebb). Zooplankton samples were collected with the aid of a suction pump (300L), filtered in plankton nets (300μm) and fixed in saline formalin 4%. Samples were collected at a fixed point (A1), near the mouth of the estuary, with samples taken at neap tides and spring tides during the dry and rainy seasons. Samples were collected for 13 hours, at intervals of 1 hour in 3 depths: surface, middle and bottom. Simultaneous collection of biological, we measured the current velocity, temperature and salinity of the water through CTD. In the laboratory, samples were selected for analysis in estereomicroscope, with 25 groups identified, with Copepoda getting the highest number of species. The 168 samples obtained from temporal samples were subsampled and processed on equipment ZooScan, with the aid of software ZooProcess at the end were generated 458.997 vingnettes. 8 taxa were identified automatically, with 16 classified as a semi-automatic. The group Copepoda, despite the limited taxonomic refinement ZooScan, obtained 2 genera and 1 species identified automatically. Among the seasons dry and wet groups Brachyura (zoea), Chaetognatha, and the Calanoid copepods (others), Temora spp., Oithona spp. and Euterpina acutifrons were those who had higher frequency of occurrence, appearing in more than 70% of the samples. Copepoda group showed the largest percentage of relative abundance in both seasons. There was no seasonal variation of total zooplankton, with an average density of 7826±4219 org.m-3 in the dry season, and 7959±3675 org.m-3 in the rainy season, neither between the types and phases of the tides, but seasonal differences were significant recorded for the main zooplankton groups. Vertical stratification was seen for the major zooplankton groups (Brachyura, Chaetognatha, Calanoida (other), Oithona spp, Temora spp. e Euterpina acutifrons). The scale of this stratification varied with the type (square or tide) and tidal phase (flood or ebb). The instantaneous transport was more influenced by current velocity, with higher values observed in spring tides to the total zooplankton, however, there was a variation of this pattern depending on the zooplankton group. According to the data import and export of total zooplankton, the outflow of organisms of the estuary was higher than the input. The results suggest that the estuary of Caravelas may influence the dynamics of organic matter to the adjacent coast, with possible consequences in National Marine Park of Abrolhos