999 resultados para Linguagens de programação em lógica - Semântica
Resumo:
Apesar da existência de produtos comerciais e da investigação na área, a construção de sistemas de informação com diversos componentes distribuídos, heterogéneos e autónomos - conhecidos como sistemas de informação federados - é ainda um desafio. Estes sistemas de informação oferecem uma visão global unificada sobre os vários modelos de dados (parciais). No entanto, a modelação destes sistemas é um desafio, já que modelos de dados como o relacional não incluem informação sobre a distribuição e tratamento de heterogeneidade. É também necessário interagir com estes sistemas de informação, através de interrogações sobre os diversos componentes dos sistemas, sem ser necessário conhecer os detalhes dos mesmos. Este trabalho propõe uma abordagem a estes desafios, através da utilização de modelos para descrição semântica, e.g. linguagem OWL (Ontology Web Language), para construir uma descrição unificada dos seus diversos modelos parciais. O modelo criado para dar suporte a esta descrição é, em parte, baseado em ontologias existentes, que foram alteradas e extendidas para resolver diversos desafios de modelação. Sobre este modelo, é criado um componente de software que permite a execução de interrogações SQL (Structured Query Language) sobre o sistema federado, resolvendo os problemas de distribuição e heterogeneidade existentes.
Resumo:
As soluções de recuperação de informação actuais, que classificam documentos de acordo com a sua relevância, baseiam-se na sua grande maioria em algoritmos estatísticos não recorrendo a conhecimento semântico sobre o domínio pesquisado. Esta abordagem tem sido adoptada em grande escala e com bons resultados, em grande medida devido à baixa complexidade que apresenta e à facilidade e universalidade com que pode ser aplicada. Esta tese explora uma alternativa à pesquisa de informaçã baseada apenas na contagem de termos, tentando ao mesmo tempo manter a complexidade em níveis semelhantes. O trabalho desenvolvido baseia-se na utilização de Lógica de Descrição para representar conhecimento sobre um domínio e inferir pesquisas alternativas, que possam conduzir a um ganho na precisão dos resultados. Avaliam-se os ganhos obtidos por esta abordagem, nomeadamente na obtenção de resultados baseados em semelhança semântica e não puramente sintáctica. Esta abordagem permite obter resultados que não seriam considerados numa pesquisa puramente sintáctica.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
INTRODUÇÃO: Programas de investigação epidemiológica e de ação no âmbito da violência familiar estão em franca ascensão, requerendo instrumentos de aferição adaptados e vertidos para o português. O objetivo do estudo é avaliar a equivalência semântica entre o original em inglês e duas versões para o português do instrumento Abuse Assessment Screen (AAS) usado no rastreamento de casos de violência contra a mulher grávida e recomendar uma versão-síntese para uso corrente. MÉTODOS: O processo de avaliação de equivalência semântica envolveu quatro etapas: tradução, retradução, apreciação formal de equivalência e crítica final através de consultas com especialista na área temática. RESULTADOS: Para cada item do instrumento apresentam-se os resultados relativos às quatro etapas. O texto cobre cada passo do processo que levou à versão final. As duas versões mostraram-se bastante semelhantes, com 14 das 15 assertivas similares, embora a segunda versão tenha se mostrado mais adequada, ainda que para alguns itens tenha sido decidido juntar as duas versões ou mesmo utilizar um item oriundo da versão um. CONCLUSÃO: É importante usar mais de uma versão no processo, em várias etapas de avaliação e de crítica, e discutir a pertinência de se acrescentar uma etapa adicional de interlocução do instrumento com membros da população-alvo.
Resumo:
O Processo de Bolonha, cujo propósito visa a construção de um Espaço Europeu do Ensino Superior, tem como um dos seus objectivos promover a mobilidade de estudantes. A adopção do Processo de Bolonha requer uma abordagem que agilize a mobilidade dos estudantes, à luz da legislação actualmente em vigor. Neste âmbito, destaca-se a interoperabilidade entre sistemas de gestão académica na área de investigação da Web Semântica. Esta dissertação propõe um modelo de representação flexível que integra conhecimento sobre o estudante e sobre os cursos que frequentou ou pretende frequentar: (1) Registo Académico do estudante relativo a competências adquiridas designadamente no decorrer de uma qualificação, frequência de unidades curriculares, experiência profissional ou formação pós-secundária e (2) Plano Individual de Estudos que posiciona o estudante no contexto de um determinado (3) Plano de Curso que define a estrutura curricular e plano de estudos que o estudante pretende frequentar. O modelo de representação proposto foi alvo de avaliação experimental. Para tal, foi concebido um demonstrador que aplicou o modelo proposto em quatro cenários de utilização relativos à mobilidade de estudantes no âmbito do Processo de Bolonha.
Resumo:
No futuro, o papel da televisão pública ver-se-á condicionado pelo processo acelerado de evolução que marca uma transição da forma dominante da televisão de fluxo à televisão de stock – algo que já acontece, aliás, nos nossos dias. O meio tem evoluído desde o seu nascimento, respondendo a uma tensão existente entre dois vectores de força, em cujos pólos encontramos, por um lado, a inovação tecnológica e, por outro, a regulação. O primeiro pólo está representado na linha temporal pelo movimento entre o deslumbramento da tecnologia analógica e o da tecnologia digital. O segundo marca o momento em que a televisão deixa de ser considerada um bem público (ideia dominante) e passa a ser vista como mais uma indústria. Os dois pólos têm mantido uma relação activa e de mútuo condicionamento. Pode-se dizer que a regra subjacente a esta dinâmica tem sido a seguinte: a um menor grau de inovação tecnológica corresponde uma maior regulação; um maior grau de inovação está associado a uma maior desregulação. Se concordamos que o nascimento da televisão corresponde ao grau zero de inovação (pese embora a própria invenção da mesma tenha constituído uma novidade espectacular), também é verdade que esse grau pressupunha o uso de uma tecnologia que possibilitava a transmissão à distância de som e imagens em movimento, sem necessidade de se dispor de um elo físico. Para tal, nesta fase de desenvolvimento tecnológico, era utilizada a modulação das ondas hertzianas, um bem escasso que permitia transmitir sem interferências um número limitado de canais.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
O artigo teve como base uma comunicação da autora nos Encontros do CEAA/2, sob o título "Artes performativas : novos discursos", em outubro de 2009.
Resumo:
OBJETIVO: Desenvolver e comparar dois modelos matemáticos, um deles baseado em regressão logística e o outro em teoria de conjuntos fuzzy, para definir a indicação para a realização do exame cintilográfico a partir de resultados dos exames laboratoriais. MÉTODOS: Foram identificados 194 pacientes que tiveram cálcio e paratormônio séricos medidos a partir da base de registros de cintilografia de paratiróides realizadas em laboratório de diagnóstico de São Paulo, no período de janeiro de 2000 a dezembro de 2004. O modelo de regressão logística foi desenvolvido utilizando-se o software SPSS e o modelo fuzzy, o Matlab. A performance dos modelos foi comparada utilizando-se curvas ROC. RESULTADOS: Os modelos apresentaram diferenças estatisticamente significantes (p=0,026) nos seus desempenhos. A área sob a curva ROC do modelo de regressão logística foi de 0,862 (IC 95%: 0,811-0,913) e do modelo de lógica fuzzy foi 0,887 (IC 95%: 0,840-0,933). Este último destacou-se como particularmente útil porque, ao contrário do modelo logístico, mostrou capacidade de utilizar informações de paratormônio em intervalo em que os valores de cálcio mostraram-se pouco discriminantes. CONCLUSÕES: O modelo matemático baseado em teoria de conjuntos fuzzy pareceu ser mais adequado do que o baseado em regressão logística como método para decisão da realização de cintilografia das paratiróides. Todavia, sendo resultado de um exercício metodológico, inferências sobre o comportamento do objeto podem ser impróprias, dada a não representatividade populacional dos dados.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Este trabalho teve o intuito de testar a viabilidade da programação offline para tarefas de lixamento na empresa Grohe Portugal. Para tal era necessário perceber o que é a programação offline e para isso foi efectuada uma pesquisa referente a essa temática, onde ficou evidente que a programação offline é em tudo semelhante à programação online, tendo apenas como principal diferença o facto de não usar o robô propriamente dito durante o desenvolvimento do programa. Devido à ausência do robô, a programação offline exige que se conheça detalhadamente a célula de trabalho, bem como todas as entradas e saídas associadas à célula, sendo que o conhecimento das entradas e saídas pode ser contornada carregando um backup do robô ou carregando os módulos de sistema. No entanto os fabricantes habitualmente não fornecem informação detalhada sobre as células de trabalho, o que dificulta o processo de implementação da unidade no modelo 3D para a programação offline. Após este estudo inicial, foi efectuado um estudo das características inerentes a cada uma das células existentes, com o objectivo de se obter uma melhor percepção de toda a envolvente relacionada com as tarefas de lixamento. Ao longo desse estudo efectuaram-se vários testes para validar os diversos programas desenvolvidos, bem como para testar a modelação 3D efectuada. O projecto propriamente dito consistiu no desenvolvimento de programas offline de forma a minimizar o impacto (em especial o tempo de paragem) da programação de novos produtos. Todo o trabalho de programação era até então feito utilizando o robô, o que implicava tempos de paragem que podiam ser superiores a três dias. Com o desenvolvimento dos programas em modo offline conseguiu-se reduzir esse tempo de paragem dos robôs para pouco mais de um turno (8h), existindo apenas a necessidade de efectuar algumas afinações e correcções nos movimentos de entrada, saída e movimentações entre rotinas e unidades, uma vez que estes movimentos são essenciais ao bom acabamento da peça e convém que seja suaves. Para a realização e conclusão deste projecto foram superadas diversas etapas, sendo que as mais relevantes foram: - A correcta modelação 3D da célula, tendo em conta todo o cenário envolvente, para evitar colisões do robô com a célula; - A adaptação da programação offline para uma linguagem mais usual aos afinadores, ou seja, efectuar a programação com targets inline e criar diferentes rotinas para cada uma das partes da peça, facilitando assim a afinação; - A habituação à programação recorrendo apenas ao uso de módulos para transferir os programas para a célula, bem como a utilização de entradas, saídas e algumas rotinas e funcionalidades já existentes.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Tecnologias da Web Semântica como RDF, OWL e SPARQL sofreram nos últimos anos um forte crescimento e aceitação. Projectos como a DBPedia e Open Street Map começam a evidenciar o verdadeiro potencial da Linked Open Data. No entanto os motores de pesquisa semânticos ainda estão atrasados neste crescendo de tecnologias semânticas. As soluções disponíveis baseiam-se mais em recursos de processamento de linguagem natural. Ferramentas poderosas da Web Semântica como ontologias, motores de inferência e linguagens de pesquisa semântica não são ainda comuns. Adicionalmente a esta realidade, existem certas dificuldades na implementação de um Motor de Pesquisa Semântico. Conforme demonstrado nesta dissertação, é necessária uma arquitectura federada de forma a aproveitar todo o potencial da Linked Open Data. No entanto um sistema federado nesse ambiente apresenta problemas de performance que devem ser resolvidos através de cooperação entre fontes de dados. O standard actual de linguagem de pesquisa na Web Semântica, o SPARQL, não oferece um mecanismo para cooperação entre fontes de dados. Esta dissertação propõe uma arquitectura federada que contém mecanismos que permitem cooperação entre fontes de dados. Aborda o problema da performance propondo um índice gerido de forma centralizada assim como mapeamentos entre os modelos de dados de cada fonte de dados. A arquitectura proposta é modular, permitindo um crescimento de repositórios e funcionalidades simples e de forma descentralizada, à semelhança da Linked Open Data e da própria World Wide Web. Esta arquitectura trabalha com pesquisas por termos em linguagem natural e também com inquéritos formais em linguagem SPARQL. No entanto os repositórios considerados contêm apenas dados em formato RDF. Esta dissertação baseia-se em múltiplas ontologias partilhadas e interligadas.