73 resultados para Psicolinguística : Aquisição da linguagem (segunda língua)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como principais objectivos, estudar e optimizar o processo de tratamento do efluente proveniente das máquinas da unidade Cold-press da linha de produção da Empresa Swedwood, caracterizar a solução límpida obtida no tratamento e estudar a sua integração no processo, e por fim caracterizar o resíduo de pasta de cola obtido no tratamento e estudar a possível valorização energética deste resíduo. Após caracterização inicial do efluente e de acordo com os resultados de um estudo prévio solicitado pela Empresa Swedwood a uma empresa externa, decidiu-se iniciar o estudo de tratabilidade do efluente pelo processo físico-químico a coagulação/floculação. No processo de coagulação/floculação estudou-se a aplicabilidade, através de ensaios Jar-test, dos diferentes agentes de coagulação/floculação: a soda cáustica, a cal, o cloreto férrico e o sulfato de alumínio. Os melhores resultados neste processo foram obtidos com a adição de uma dose de cal de 500 mg/Lefluente, seguida da adição de 400 mg/Lefluente de sulfato de alumínio. Contudo, após este tratamento o clarificado obtido não possuía as características necessárias para a sua reintrodução no processo fabril nem para a sua descarga em meio hídrico. Deste modo procedeu-se ao estudo de tratamentos complementares. Nesta segunda fases de estudo testaram-se os seguintes os tratamentos: a oxidação química por Reagente de Fenton, o tratamento biológico por SBR (sequencing batch reactor) e o leito percolador. Da análise dos resultados obtidos nos diferentes tratamentos conclui-se que o tratamento mais eficaz foi o tratamento biológico por SBR com adição de carvão activado. Prevê-se que no final do processo de tratamento o clarificado obtido possa ser descarregado em meio hídrico ou reintroduzido no processo. Como o estudo apenas foi desenvolvido à escala laboratorial, seria útil poder validar os resultados numa escala piloto antes da sua implementação industrial. A partir dos resultados do estudo experimental, procedeu-se ao dimensionamento de uma unidade de tratamento físico-químico e biológico à escala industrial para o tratamento de 20 m3 de efluente produzido na fábrica, numa semana. Dimensionou-se ainda a unidade (leito de secagem) para tratamento das lamas produzidas. Na unidade de tratamento físico-químico (coagulação/floculação) os decantadores estáticos devem possuir o volume útil de 4,8 m3. Sendo necessários semanalmente 36 L da suspensão de cal (Neutrolac 300) e 12,3 L da solução de sulfato de alumínio a 8,3%. Os tanques de armazenamento destes compostos devem possuir 43,2 litros e 96 litros, respectivamente. Nesta unidade estimou-se que são produzidos diariamente 1,4 m3 de lamas. Na unidade de tratamento biológico o reactor biológico deve possuir um volume útil de 6 m3. Para que este processo seja eficaz é necessário fornecer diariamente 2,1 kg de oxigénio. Estima-se que neste processo será necessário efectuar a purga de 325 litros de lamas semanalmente. No final da purga repõe-se o carvão activado, que poderá ser arrastado juntamente com as lamas, adicionando-se 100 mg de carvão por litro de licor misto. De acordo com o volume de lamas produzidos em ambos os tratamentos a área mínima necessária para o leito de secagem é de cerca de 27 m2. A análise económica efectuada mostra que a aquisição do equipamento tem o custo de 22.079,50 euros, o custo dos reagentes necessários neste processo para um ano de funcionamento tem um custo total de 508,50 euros e as necessidades energéticas de 2.008,45 euros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação propõe o desenvolvimento de um sistema capaz de adquirir e monitorizar num computador o sinal do electrocardiograma (ECG) e de detectar o pico R do complexo QRS do referido sinal. Numa primeira fase foi efectuado um estudo do sistema cardiovascular, de forma a compreender a actividade eléctrica do coração e dos diversos sinais que constituem o ECG. Foi efectuado um estudo sobre o sinal ECG, tendo sido estudadas as suas características, bem como técnicas e componentes básicos de aquisição e condicionamento do sinal, sendo também analisados diversos sistemas que efectuam a aquisição de ECG. Numa segunda fase foram estudadas as Field Programmable Analog Array (FPAA), analisando o estado da arte desta tecnologia, bem como os dispositivos disponíveis comercialmente. Após esta análise foram seleccionados os dispositivos FPAA, bem como o restante hardware e software necessários para a realização desta Tese. Foi desenvolvido um sistema de condicionamento de sinal ECG, e de detecção de pico R do complexo QRS, apenas com componentes analógicos discretos tendo sido analisados os resultados obtidos antes de se avançar para a fase seguinte. Após a realização do sistema com componentes discretos, foi implementado um sistema em que grande parte do condicionamento do sinal ECG é efectuado por duas placas de desenvolvimento FPAA, de forma a diminuir a quantidade de componentes e a obter um sinal com melhor resolução. Os resultados obtidos foram analisados e comparados com o sistema desenvolvido. Para monitorizar o sinal ECG e o pico R num computador, foi desenvolvido um sistema em que os sinais são convertidos pelo conversor A/D de um microcontrolador, e enviados por comunicação série para um computador, sendo os valores obtidos visualizados numa aplicação em ambiente MATLAB.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A saúde em Portugal vive hoje mudanças significativas. A criação de modelos de Gestão Empresarial em instituições públicas visa a melhor qualidade ao menor custo. A aquisição de equipamento médico, cada vez mais sofisticado, exige das instituições esforços redobrados. A necessidade de redução dos custos acoplada à necessidade de aquisição de tecnologias cada vez mais avançadas exige que as instituições tomem mediadas mais rigorosas para melhorar o processo de aquisição. É importante estabelecer desde o início de um processo de aquisição, as exatas necessidades da instituição, com um conjunto de especificações bem detalhado do produto a adquirir bem como um conjunto exigências que devem ser feitas perante os fornecedores que salvaguardem a instituição. O conhecimento do equipamento a adquirir facilita todo o processo. Assim é de extrema importância garantir o estudo bastante alargado do equipamento, permitindo à instituição uma melhor avaliação do equipamento, aquando da seleção do mesmo. A garantia da confiabilidade metrológica é outro ponto muito importante a ter em conta no processo, uma vez que o sucesso dos cuidados de saúde parte da confiança e segurança que transmitem aos seus utentes. O objetivo deste trabalho é o estudo de Ventiladores Pulmonares (VP) focando essencialmente na seleção e aquisição destes equipamentos. Neste estudo faz-se também um estudo dos procedimentos de avaliação da confiabilidade metrológica dos VP, tendo em vista a definição dos testes de verificação a serem efetuados ao longo do processo de aquisição. É normalizado o Caderno de Encargos (CE) e respetivas especificações/requisitos técnicos, tentando comprar de acordo com as reais necessidades da instituição, visando o menor desperdício e garantido a melhor qualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Ensino de Inglês e de Francês ou Espanhol no Ensino Básico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Ensino de Inglês e de Francês ou Espanhol no Ensino Básico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

III SIMELP, realizado no Departamento de Português da Universidade de Macau, de 30 de agosto a 2 de setembro

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O confronto entre certas criações ficcionais e a dinâmica da colonização nos leva a diversos campos disciplinares. Se a história registrou o intenso intercâmbio de mercadorias e idéias que ocorreu entre Portugal e Brasil, a partir da descoberta do Novo Mundo, a literatura revisitou e recriou esse passado. É o que se constata na obra do escritor brasileiro João Guimarães Rosa, em que articulando a realidade e a imaginação, a natureza e o homem, o regional e o universal, o escritor de perfil naturalista ilumina a linguagem da História e da Ciência pela Arte. Com relação às expedições científicas portuguesas pelo Brasil, a história relata que, na segunda metade do século XVIII, Portugal impulsionou a elaboração de um projeto de confecção de uma História Natural, tendo como espaço de criação cultural a Academia Real das Ciências de Lisboa. Esse empreendimento, no entanto, não teria sido possìvel sem as ―viagens imaginárias‖ do intelectual Domenico Agostino Vandelli, correspondente de Lineu e um dos principais articuladores da política portuguesa dirigida às colônias. Assim, instruídos conforme o livro Viagens filosóficas ou dissertações sobre as importantes regras que o filósofo naturalista nas suas peregrinações deve principalmente observar, alunos da Universidade de Coimbra, onde Vandelli era professor de História Natural e Química, são preparados para explorar as colônias ultramarinas. Em meio à produção literária de Guimarães Rosa, destacamos o conto ―O recado do morro‖, do livro Corpo de baile, lançado em 1956, para um paralelo com a História. Nessa ficção, um narrador conta a estória de uma pitoresca expedição, formada por moradores de um vilarejo, contratados por um viajante alemão, que percorre o interior do estado de Minas Gerais. Região de grutas, minerais, vegetação de cerrado (com diversidade em espécies comestíveis e medicinais), de fazendas de gado, animais em perigo de extinção e homens sábios do sertão, é com o uso dessa enigmática paisagem, que o escritor vai moldar o seu ―recado‖. Através de um estudo comparado entre os ideais naturalistas de Vandelli (evidentes nas correspondências trocadas com Lineu e nas Instruções aos viajantes) e do escritor Guimarães Rosa (expresso de forma ficcional), destacamos a necessidade de se resgatar, nos dias atuais, seus trabalhos, como forma de se propor uma nova relação do homem com o meio ambiente. Nós, de fato, reconhecemos que Deus todo-poderoso escreveu dois livros, a natureza e a revelação [...] (Lineu, 1765) O confronto entre certas criações ficcionais e a dinâmica da colonização nos leva a percorrer interessantes caminhos da História, da Literatura e das Ciências da Natureza. Se a história registrou o intenso intercâmbio de produtos e idéias, que ocorreu entre Portugal e Brasil, via Atlântico, a partir da descoberta do Novo Mundo, alguns escritores do Modernismo brasileiro revisitaram e recriaram esse passado. No que se refere às expedições científicas portuguesas pelo Brasil, o historiador Oswaldo Munteal Filho lembra que, na segunda metade do século XVIII, Portugal impulsionou a elaboração de um projeto de confecção de uma História Natural de suas colônias, tendo como espaço de criação cultural e reflexiva a Academia Real das Ciências de Lisboa. Esse empreendimento, no entanto, não teria sido possìvel sem as ―viagens imaginárias‖ do intelectual ilustrado Domenico Agostino Vandelli, um dos principais articuladores da política portuguesa dirigida às colônias no âmbito da Academia. Segundo seu pensamento, era preciso munir os naturalistas com ferramentas capazes de desvendar um Brasil desconhecido do ponto de vista da ciência e ainda intocado quanto às potencialidades de seus elementos naturais. Portanto, o olhar do naturalista deveria passar, primeiro, pelo utilitário: as virtudes das plantas medicinais, os usos dos gêneros exóticos, o aproveitamento do reino animal e mineral e a fertilidade das extensas terras. Reordenar a Natureza, não mais de forma alegórica, mas através da observação e experiência figurava-lhe como medida necessária e urgente. A par disso e instruídos conforme o livro Viagens filosóficas ou dissertações sobre as importantes regras que o filósofo naturalista, nas suas peregrinações, deve principalmente observar, alunos da Universidade de Coimbra, onde Vandelli era professor de História Natural e Química, são preparados para explorar as colônias ultramarinas (p. 483-518).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante uma carreira de mais de 30 anos, constituiu sempre uma preocupação o poder não ser perceptível o texto cantado. A cantores com mérito vocal e larga experiência notam-se pontos fracos na inteligibilidade dos textos ou na forma artificial, da articulação. Muitos docentes, têm a mesma dificuldade no ensino. Esse problema surge em todas as línguas, mas interessa-nos o português. Não existindo estudos do português cantado, elaborou-se um trabalho, com o qual se contribui para um melhor conhecimento da fonética e sua adaptação ao Canto. Efectuaram-se testes perceptivos, verificando-se que alunos em fase mais avançada e noções mais precisas da articulação para o Canto conseguiram percentagem superior de inteligibilidade. Estas adaptações incidiram na maior abertura de vogais, consoantes mais percutidas ou sub-articuladas conforme o caso, distribuição rítmica das componentes dos ditongos, etc. Pode concluir-se que a sistematização de ensinamentos de como abordar, na voz cantada, a emissão de fonemas, ditongos, vogais e consoantes utilizada nas aulas, menos corrente que a fonética tradicional, permitiu uma maior percepção dos textos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Ensino Precoce do Inglês

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Ensino Precoce do Inglês

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Música - Interpretação Artística

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.