999 resultados para Processamento radiográfico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado compreendida no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre a contribuição da Fluorescência de Raios – X (FRX) no Zonamento de Georrecursos, com particular ênfase para a utilização do instrumento portátil e de ferramentas tecnológicas de vanguarda, indispensáveis à prospecção e exploração dos recursos minerais, designadamente na interpretação e integração de dados de natureza geológica e na modelação de métodos de exploração e processamento /tratamento de depósitos minerais, assim como do respectivo controlo. Esta dissertação discute os aspectos fundamentais da utilização da técnica de Fluorescência de Raios-X (portátil, FRXP), quanto à sua possibilidade de aplicação e metodologia exigida, com vista à definição de zonas com características químicas análogas do georrecurso e que preencham as exigências especificadas para a utilização da matéria-prima, nas indústrias consumidoras. Foi elaborada uma campanha de recolha de amostras de calcário proveniente da pedreira do Sangardão, em Condeixa–a–Nova, que numa primeira fase teve como objectivo principal a identificação da composição química da área em estudo e o grau de precisão do aparelho portátil de FRX. Para além desta análise foram, também, realizadas análises granulométricas por peneiração e sedimentação por Raios-X a amostras provenientes das bacias de sedimentação e do material passado no filtro prensa. Validado o método de análise por FRXP, realizou-se uma segunda fase deste trabalho, que consistiu na elaboração de uma amostragem bastante significativa de pontos, onde se realizaram análises por FRXP, de forma a obter uma maior cobertura química da área em estudo e localizar os locais chave de exploração da matéria-prima. Para uma correcta leitura dos dados analisados recorreu-se a ferramentas aliadas às novas tecnologias, as quais se mostraram um importante contributo para uma boa gestão do georrecurso em avaliação, nomeadamente o “XLSTAT” e o “Surfer” para tratamento estatístico dos dados e modelação, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tecnologias da Web Semântica como RDF, OWL e SPARQL sofreram nos últimos anos um forte crescimento e aceitação. Projectos como a DBPedia e Open Street Map começam a evidenciar o verdadeiro potencial da Linked Open Data. No entanto os motores de pesquisa semânticos ainda estão atrasados neste crescendo de tecnologias semânticas. As soluções disponíveis baseiam-se mais em recursos de processamento de linguagem natural. Ferramentas poderosas da Web Semântica como ontologias, motores de inferência e linguagens de pesquisa semântica não são ainda comuns. Adicionalmente a esta realidade, existem certas dificuldades na implementação de um Motor de Pesquisa Semântico. Conforme demonstrado nesta dissertação, é necessária uma arquitectura federada de forma a aproveitar todo o potencial da Linked Open Data. No entanto um sistema federado nesse ambiente apresenta problemas de performance que devem ser resolvidos através de cooperação entre fontes de dados. O standard actual de linguagem de pesquisa na Web Semântica, o SPARQL, não oferece um mecanismo para cooperação entre fontes de dados. Esta dissertação propõe uma arquitectura federada que contém mecanismos que permitem cooperação entre fontes de dados. Aborda o problema da performance propondo um índice gerido de forma centralizada assim como mapeamentos entre os modelos de dados de cada fonte de dados. A arquitectura proposta é modular, permitindo um crescimento de repositórios e funcionalidades simples e de forma descentralizada, à semelhança da Linked Open Data e da própria World Wide Web. Esta arquitectura trabalha com pesquisas por termos em linguagem natural e também com inquéritos formais em linguagem SPARQL. No entanto os repositórios considerados contêm apenas dados em formato RDF. Esta dissertação baseia-se em múltiplas ontologias partilhadas e interligadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No actual contexto macroeconómico, a melhoria dos processos e o aproveitamento de todas as sinergias, são factores que se tornaram ainda mais importantes e nalguns casos, condição sine qua non para a sobrevivência das próprias empresas. Cada vez mais as empresas são obrigadas a produzir mais com menos recursos, com a qualidade desejada pelos clientes e a preços competitivos. A qualidade do produto final não deve ser afectada com a desculpa da implementação de uma política da redução de custos. Pelo contrário, deve existir a preocupação de eliminar da cadeia de valor tudo o que não contribui com valor acrescentado, melhorando nalguns casos a própria qualidade do produto final. A realização deste projecto tem como objectivo, analisar e implementar, através de ferramentas relacionadas com a metodologia Lean, melhorias na produção de aplicadores de cravação numa empresa multinacional ligada ao ramo automóvel. Pretende-se um aumento da taxa de produção diária em 50%, obtida essencialmente através do balanceamento dos recursos humanos e no desenvolvimento de um sistema kanban incorporado no sector produtivo. A parte inicial do trabalho incidiu no estudo e análise do produto e respectivo processo produtivo. Posteriormente e por várias fases efectuaram-se análises aos tempos de fabrico e ao sequenciamento das operações, com vista ao conhecimento de todo o processo de montagem de modo a identificar os aspectos de melhoria. Após o registo dos pontos a eliminar e/ou a melhorar, procedeu-se a uma análise criteriosa dos dados recolhidos, efectuando-se o balanceamento dos recursos de modo a tornar eficaz a implementação do sistema kanban. Este sistema é a base da melhoria proposta para este tema de dissertação. Após implementação do sistema kanban, foi avaliado o seu desempenho e foram registadas melhorias na produção diária dos aplicadores bem como no lead time despendido no processamento dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo Automação e Electrónica Industrial

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução tecnológica, associada às mudanças sociais a que temos assistido, nomeadamente nas últimas décadas, originou mudanças significativas na forma como os utentes interagem com as instituições, passando a privilegiar a utilização de meios electrónicos, tais como as mensagens de correio electrónico, em detrimento de formas mais tradicionais, como a carta e o telefone. Neste contexto, sendo o ISEP uma instituição de ensino superior que alberga milhares de alunos e recebe centenas de novos alunos todos os anos, necessita de ter condições para que possa responder de forma atempada às inúmeras mensagens de correio electrónico que recebe. Esta necessidade fez com que surgisse um projecto, de nome SiRAC, que servisse para auxiliar na resposta a essas mensagens. O SiRAC tem como objectivo responder a mensagens de correio electrónico de forma automática. De salientar que se admite não ser possível responder a todas as mensagens, privilegiando-se aquelas que são recorrentemente colocadas à Divisão Académica. Assim será possível encurtar o tempo de comunicação entre os diversos intervenientes, criando uma relação mais próxima entre o ISEP e o público que o contacta. O SiRAC analisa as mensagens e procura responder de forma automática sempre que o seu conteúdo possa ser classificado como fazendo parte de um conjunto de questões previamente identificadas pelos recursos humanos da Divisão Académica como recorrentes e para as quais já exista uma resposta tipo. As questões constantes da mensagem são identificadas através de palavras e expressões normalmente associadas aos diferentes tipos de questão. O envio da resposta pressupõe a identificação correcta dos tipos associados e de acordo com requisitos mínimos definidos, de forma a evitar enviar uma resposta errada a uma mensagem. A implementação do SiRAC permite a libertação de recursos humanos da Divisão Académica que anteriormente estavam afectas à resposta de mensagens para o desempenho de outras funções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The constant evolution of the Internet and its increasing use and subsequent entailing to private and public activities, resulting in a strong impact on their survival, originates an emerging technology. Through cloud computing, it is possible to abstract users from the lower layers to the business, focusing only on what is most important to manage and with the advantage of being able to grow (or degrades) resources as needed. The paradigm of cloud arises from the necessity of optimization of IT resources evolving in an emergent and rapidly expanding and technology. In this regard, after a study of the most common cloud platforms and the tactic of the current implementation of the technologies applied at the Institute of Biomedical Sciences of Abel Salazar and Faculty of Pharmacy of Oporto University a proposed evolution is suggested in order adorn certain requirements in the context of cloud computing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução – A análise da forma ou morfometria de estruturas anatómicas, como o trato vocal, pode ser efetuada a partir de imagens bidimensionais (2D) como de aquisições volumétricas (3D) de ressonância magnética (RM). Esta técnica de imagem tem vindo a ter uma utilização crescente no estudo da produção da fala. Objetivos – Demonstrar como pode ser efetuada a morfometria do trato vocal a partir da imagem por ressonância magnética e ainda apresentar padrões anatómicos normais durante a produção das vogais [i a u] e dois padrões articulatórios patológicos em contexto simulado. Métodos – As imagens consideradas foram recolhidas a partir de aquisições 2D (Turbo Spin-eco) e 3D (Flash Gradiente-Eco) de RM em quatro sujeitos durante a produção das vogais em estudo; adicionalmente procedeu-se à avaliação de duas perturbações articulatórias usando o mesmo protocolo de RM. A morfometria do trato vocal foi extraída com recurso a técnicas manuais (para extração de cinco medidas articulatórias) e automáticas (para determinação de volumes) de processamento e análise de imagem. Resultados – Foi possível analisar todo o trato vocal, incluindo a posição e a forma dos articuladores, tendo por base cinco medidas descritivas do posicionamento destes órgãos durante a produção das vogais. A determinação destas medições permitiu identificar quais as estratégias mais comummente adotadas na produção de cada som, nomeadamente a postura articulatória e a variação de cada medida para cada um dos sujeitos em estudo. No contexto de voz falada intersujeitos, foi notória a variabilidade nos volumes estimados do trato vocal para cada som e, em especial, o aumento do volume do trato vocal na perturbação articulatória de sigmatismo. Conclusão – A imagem por RM é, sem dúvida, uma técnica promissora no estudo da fala, inócua, não-invasiva e que fornece informação fiável da morfometria do trato vocal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução – O presente estudo avaliou o efeito da cafeína no valor da razão contraste ruído (CNR) em imagens SWI. Objetivos – Avaliar o efeito da cafeína qualitativamente e quantificado pelo cálculo do valor CNR em imagens de magnitude e MIP para as estruturas: veia cerebral interna, seio sagital superior, tórcula e artéria cerebral média. Metodologia – A população do estudo incluiu 24 voluntários saudáveis que estiveram pelo menos 24h privados da ingestão de cafeína. Adquiriram-se imagens SWI antes e após a ingestão de 100ml de café. Os voluntários foram subdivididos em quatro grupos de seis indivíduos/grupo e avaliados separadamente após decorrido um intervalo de tempo diferente para cada grupo (15, 25, 30 ou 45min pós-cafeína). Utilizou-se um scanner Siemens Avanto 1,5 T com bobine standard de crânio e os parâmetros: T2* GRE 3D de alta resolução no plano axial, TR=49; TE=40; FA=15; FOV=187x230; matriz=221x320. O processamento de imagem foi efetuado no software OsiriX® e a análise estatística no GraphPadPrism®. Resultados e Discussão – As alterações de sinal e diferenças de contraste predominaram nas estruturas venosas e não foram significantes na substância branca, LCR e artéria cerebral média. Os valores CNR pré-cafeína diferiram significativamente do pós-cafeína nas imagens de magnitude e MIP na veia cerebral interna e nas imagens de magnitude do seio sagital superior e da tórcula (p<0,0001). Não se verificaram diferenças significativas entre os grupos avaliados nos diferentes tempos pós-cafeína. Conclusões – Especulamos que a cafeína possa vir a ser usada como agente de contraste nas imagens SWI barato, eficaz e de fácil administração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar a padronização da coleta do lavado gástrico para diagnóstico de tuberculose em crianças. MÉTODOS: Estudo de revisão sistemática referente aos anos de 1968 a 2008. O levantamento de artigos científicos foi feito nas bases de dados Lilacs, SciELO e Medline, utilizando-se a estratégia de busca ("gastric lavage and tuberculosis" ou "gastric washing and tuberculosis", com o limite "crianças com idade até 15 anos"; e "gastric lavage and tuberculosis and childhood" ou "gastric washing and tuberculosis and childhood"). A análise dos 80 artigos recuperados baseou-se nas informações sobre o protocolo de coleta de lavado gástrico para diagnóstico da tuberculose em crianças: preparo da criança e horas de jejum, horário da coleta, aspiração do resíduo gástrico, volume total aspirado, solução usada para aspiração do conteúdo gástrico, solução descontaminante, solução tampão, e tempo de encaminhamento das amostras para o laboratório. Desses, foram selecionados 14 artigos após análise criteriosa. RESULTADOS: Nenhum artigo explicava detalhadamente todo o procedimento. Em alguns artigos não constavam: quantidade de aspirado gástrico, aspiração antes ou após a instilação de uma solução, solução usada na aspiração gástrica, solução tampão utilizada, tempo de espera entre coleta e processamento do material. Esses resultados mostram inconsistências entre os protocolos de coleta de lavado gástrico. CONCLUSÕES: Embora este seja um método secundário no Brasil, reservado a casos que não alcançaram pontuação diagnóstica pelo sistema preconizado pelo Ministério da Saúde, é necessário padronizar a coleta de lavado gástrico para diagnóstico de tuberculose pulmonar na infância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Formalina 10% Tamponada (FNT 10%) é considerada o fixador de eleição nos Laboratórios de Anatomia Patológica. Contudo, a exposição a esta substância acarreta riscos para a saúde dos técnicos. A International Agency for Research on Cancer (IARC) classificou-a como cancerígeno humano e estudos relevam uma correlação positiva entre a exposição a formaldeído e o desenvolvimento de leucemia e leucemia mielóide. Torna-se relevante alterar o processo de fixação substituindo a FNT 10% por outros fixadores melhorando estas questões. Como tal, desenvolveram-se fixadores à base de outros compostos químicos que não formaldeído, como o Fixador Molecular Universal (UMFIX) que tem como base metanol e polietilenoglicol e que é usualmente utilizado com um processador rápido de micro-ondas. Pretende-se comparar as diferenças entre a fixação por FNT 10% e a fixação por UMFIX, em tecido hepático processado em processador rápido de micro-ondas, para as colorações de Hematoxilina-Eosina (H&E), Tricrómio de Gomori, Reticulina e PAS, através da qualidade final das lâminas testadas. A coloração de H&E foi a única que apresentou diferenças estatisticamente significativas entre os dois fixadores (p=0,032; α<0,05; Mann-Whitney). O UMFIX apresenta-se como um substituto da FNT 10% para o processamento rápido em micro-ondas, pois além de apresentar lâminas com uma qualidade final semelhante ou superior às da FNT 10%, ultrapassa os riscos referidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar a viabilidade de estratégia de relacionamento probabilístico de bases de dados na identificação de óbitos de pacientes submetidos a procedimentos de alta complexidade em cardiologia. MÉTODOS: O custo de processamento foi estimado com base em 1.672 registros de pacientes submetidos à cirurgia de revascularização do miocárdio, relacionados com todos os registros de óbito no Brasil em 2005. A acurácia do relacionamento baseou-se em linkage probabilístico entre 99 registros de autorização de internação hospitalar de pacientes submetidos a cirurgias cardíacas em instituto de referência em cardiologia, com status vital conhecido, e todos os registros de óbito do estado do Rio de Janeiro em 2005. O linkage foi realizado em quatro etapas: padronização das bases, blocagem, pareamento e classificação dos pares. Utilizou-se a blocagem em cinco passos, com chaves de blocagem com combinação de variáveis como soundex do primeiro e último nome, sexo e ano de nascimento. As variáveis utilizadas no pareamento foram "nome completo", com a utilização da distância de Levenshtein, e "data de nascimento". RESULTADOS: O segundo e o quinto passos de blocagem tiveram os maiores números de pares formados e os maiores tempos de processamento para o pareamento. O quarto passo demandou menor custo de processamento. No estudo de acurácia, após os cinco passos de blocagem, a sensibilidade do linkage foi de 90,6% e a especificidade foi de 100%. CONCLUSÕES: A estratégia de relacionamento probabilístico utilizada apresenta boa acurácia e poderá ser utilizada em estudos sobre a efetividade dos procedimentos de alta complexidade e alto custo em cardiologia.