20 resultados para Corrección automática

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os objectivos do presente trabalho foram a investigação dos principais defeitos que ocorrem nos produtos de vidro de mesa produzidos por processos automáticos e o desenvolvimento de novos vidros e tecnologias que permitam aumentar os rendimentos de produção, ou a flexibilidade da operação de conformação. A viscosidade influencia a facilidade de conformação dos produtos. Temperaturas de gota mais baixas, espessuras de parede de produtos mais elevadas e baixas áreas de transferência térmica facilitam a ocorrência de defeitos, sobretudo mecânicos e de superfície. Foram identificados os produtos de vidro de mesa que apresentam maiores dificuldades na conformação, designados por produtos de forma complexa. Por ser um factor relevante na prática, discutiu-se o efeito da quantidade de casco usado na elaboração dos vidros sobre a conformação de produtos de forma complexa. A quantidade de casco influencia a volatilização de fundentes que por sua vez tem efeito sobre as propriedades de trabalhabilidade do vidro. Desenvolveram-se novos vidros compatíveis com a utilização de queimos enriquecidos em oxigénio que são utilizados para reduzirem os defeitos mecânicos e de superfície nos produtos de vidros de mesa prensados. A compatibilidade vidro/tecnologia fez-se com uma modificação do sistema de afinação do vidro. Os vidros modificados apresentam propriedades físicoquímicas semelhantes à do vidro inicial e por isso indicam viabilidade comercial. A tecnologia dos canais corantes foi utilizada para modificar a trabalhabilidade de um vidro base a partir da introdução até 5 % de fritas incolores ricas em Li2O. Os valores de RMS (velocidade relativa de máquina) desceram de 106,8 % para 95,7 % enquanto os valores de Pt (patamar de trabalho) subiram de 100,6 s para 111,3 s com o aumento de frita. As propriedades físico-químicas dos vidros aditivados com frita indicam viabilidade comercial. Esta inovação tecnológica introduz flexibilidade nos processos industriais vidreiros. A composição química do vidro e por isso as propriedades relacionadas com a trabalhabilidade podem ser entendidas como mais uma variável dos processos de conformação e usadas em função das técnicas de conformação disponíveis, da forma dos objectos a conformar e da engenharia da ferramenta moldante utilizada. Foi observada convergência entre os resultados experimentais e os valores calculados a partir dos modelos de Huff e Fluegel nos principais parâmetros da tecnologia vidreira (RMS e Pt) e nas propriedades dos vidros nomeadamente densidade e coeficiente de dilatação térmico. Uma parte importante deste trabalho decorreu em ambiente industrial. Em temas relacionados com a investigação do processamento vidreiro industrial, a prática de desenvolver trabalho experimental integrado no próprio ambiente industrial está claramente documentada na bibliografia publicada em revistas e jornais de referência internacional. ABSTRACT: The research on the causes of major defects that occur in glass tableware products produced by automatic processes and the development of new glasses and technologies for increasing the production efficiency, or the flexibility of operation were the objectives of the Thesis project. Viscosity influences the flexibility of glass forming. Lower drop temperatures, high product wall thicknesses, or low areas of heat transfer facilitate the occurrence of defects, mainly mechanical and surface born. We identified the products of glass tableware showing the greatest difficulties in forming, designated as complex shape products. The effect of the amount of recycled glass used in the preparation of glass batches on the conformation of products of complex shapes and on glass workability is discussed. The amount of recycled glass affects the volatilization of glass modifiers which in turn have an effect on the glass properties and workability. New glasses which become compatible with the use of oxygen burners were formulated, tested and developed to the industrial use, oxygen enrichment being used to reduce the mechanical and surface defects in pressed glass tableware. Compatibility glass / technology was achieved with a modified system of tuning of the glass. The modified glasses have physical and chemical properties similar to the original glass and therefore are commercially viable. The technology of the colouring channels was used to change glass workability of a glass base by the introduction of up to 5 % Li2O rich in colourless frit. The values of RMS (relative machine speed) fell from 106.8 % to 95.7 % while the values of Pt (cooling time) increased from 100.6 s to 111.3 s by the introduction of glass frits. The physico-chemical properties of the modified glass show commercial viability. This technology introduces flexibility in industrial processes of glass. The chemical composition of glass and therefore the properties related to workability can be understood as another variable of the glass forming processes and used according to the available forming techniques, the shape of objects and the engineering tools used for the moulds. Convergence was observed between experimental and predicted from Huff and Fluegel models in studying the properties of glasses. An important part of this work was done inside the industrial environment. On issues related to the investigation of the glass processing inside the industry, the practice of developing experimental work integrated in the industrial environment is clearly documented and referenced in the published literature in international journals and periodicals.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O auto-criticismo é um traço de personalidade preditor de psicopatologia. Sabe-se que indivíduos com elevado auto-criticismo tendem a processar a compaixão como um estímulo ameaçador. Apesar destes dados, a literatura é escassa no que se refere à forma como os indivíduos com elevado auto-criticismo reagem perante emoções complexas, como o criticismo e a compaixão. Desta forma, no presente estudo foram utilizadas faces de compaixão, criticismo e neutras como estímulos distratores, em que o estímulo relevante consistiu na identificação de uma letra num conjunto delas. Os resultados mostraram que as pessoas com elevado auto-criticismo tenderam a errar mais e a ter maiores tempos de resposta na tarefa principal quando o estímulo distrator foi uma face de compaixão. Estes dados sugerem que a atenção automática de indivíduos com elevado auto-criticismo pode ser afetada perante estímulos faciais de compaixão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O benzeno foi o primeiro poluente atmosférico carcinogénico a ser regulamentado a nível europeu. Vários trabalhos têm sido publicados demonstrando a relação deste poluente com diversos tipos de neoplasias nomeadamente decorrentes de exposições a nível ocupacional. Porém, o estudo deste poluente para concentrações atmosféricas em ambientes exteriores ainda é pouco conhecido e está em clara evolução. Neste sentido, este trabalho pretende ser um contributo para o conhecimento da relação entre o benzeno atmosférico e a incidência de patologias que afectam os tecidos linfáticos e órgãos hematopoiéticos nomeadamente linfomas de Hodgkin, linfomas de não-Hodgkin e leucemias na população residente na Área Metropolitana do Porto. Dado a quase ausência de dados de monitorização das concentrações de benzeno atmosférico actualmente em Portugal, estas foram estimadas com base na definição de uma relação entre o benzeno e o monóxido de carbono. O conhecimento das concentrações em todo o domínio de estudo baseou-se na análise dos dados da Rede Automática de Monitorização da Qualidade do Ar porém, de modo a aumentar o detalhe espacial e temporal recorreu-se à modelação atmosférica aplicando o modelo TAPM. Para perceber a evolução temporal das concentrações, a modelação foi efectuada para os anos de 1991, 2001 e 2006 com base no ano meteorológico de 2006 e emissões para os respectivos anos ao nível da freguesia. O modelo foi previamente validado de acordo com uma metodologia proposta para este tipo de modelos. Contudo, mais do que perceber qual a variação da qualidade do ar a nível exterior, é importante conhecer o impacte de fontes interiores e o seu efeito na população. Assim, desenvolveu-se um modelo de exposição e dose que permitem conhecer os valores médios populacionais. A modelação da exposição populacional é efectuada com base nos perfis de actividade-tempo, nos movimentos pendulares inter-concelhos e nas concentrações de benzeno em ambientes exteriores e interiores. Na modelação da dose é ainda possível variações por sexo e idade. Por outro lado, para o estudo das patologias em análise efectuou-se uma análise epidemiológica espacial nomeadamente no que respeita à elaboração de mapas de incidência padronizados pela idade, e estudo da associação com a exposição ao benzeno atmosférico. Os resultados indicam associação entre o benzeno e as doenças em estudo. Esta evidência é mais notória quando a análise é realizada junto às principais fontes de emissão deste poluente, vias de tráfego e postos de abastecimento de combustível. Porém, a ausência de informação limita o estudo não permitindo o controlo de potenciais variáveis de confundimento como a exposição ao fumo do tabaco. A metodologia permite efectuar uma gestão integrada da qualidade do ar exterior e interior, funcionando como uma ferramenta do apoio à decisão para elaboração de planos de prevenção de longo prazo de potenciais efeitos na saúde das populações nomeadamente para outro tipo de patologias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivados pelo propósito central de contribuir para a construção, a longo prazo, de um sistema completo de conversão de texto para fala, baseado em síntese articulatória, desenvolvemos um modelo linguístico para o português europeu (PE), com base no sistema TADA (TAsk Dynamic Application), que visou a obtenção automática da trajectória dos articuladores a partir do texto de entrada. A concretização deste objectivo ditou o desenvolvimento de um conjunto de tarefas, nomeadamente 1) a implementação e avaliação de dois sistemas de silabificação automática e de transcrição fonética, tendo em vista a transformação do texto de entrada num formato adequado ao TADA; 2) a criação de um dicionário gestual para os sons do PE, de modo a que cada fone obtido à saída do conversor grafema-fone pudesse ter correspondência com um conjunto de gestos articulatórios adaptados para o PE; 3) a análise do fenómeno da nasalidade à luz dos princípios dinâmicos da Fonologia Articulatória (FA), com base num estudo articulatório e perceptivo. Os dois algoritmos de silabificação automática implementados e testados fizeram apelo a conhecimentos de natureza fonológica sobre a estrutura da sílaba, sendo o primeiro baseado em transdutores de estados finitos e o segundo uma implementação fiel das propostas de Mateus & d'Andrade (2000). O desempenho destes algoritmos – sobretudo do segundo – mostrou-se similar ao de outros sistemas com as mesmas potencialidades. Quanto à conversão grafema-fone, seguimos uma metodologia baseada em regras de reescrita combinada com uma técnica de aprendizagem automática. Os resultados da avaliação deste sistema motivaram a exploração posterior de outros métodos automáticos, procurando também avaliar o impacto da integração de informação silábica nos sistemas. A descrição dinâmica dos sons do PE, ancorada nos princípios teóricos e metodológicos da FA, baseou-se essencialmente na análise de dados de ressonância magnética, a partir dos quais foram realizadas todas as medições, com vista à obtenção de parâmetros articulatórios quantitativos. Foi tentada uma primeira validação das várias configurações gestuais propostas, através de um pequeno teste perceptual, que permitiu identificar os principais problemas subjacentes à proposta gestual. Este trabalho propiciou, pela primeira vez para o PE, o desenvolvimento de um primeiro sistema de conversão de texto para fala, de base articulatória. A descrição dinâmica das vogais nasais contou, quer com os dados de ressonância magnética, para caracterização dos gestos orais, quer com os dados obtidos através de articulografia electromagnética (EMA), para estudo da dinâmica do velo e da sua relação com os restantes articuladores. Para além disso, foi efectuado um teste perceptivo, usando o TADA e o SAPWindows, para avaliar a sensibilidade dos ouvintes portugueses às variações na altura do velo e alterações na coordenação intergestual. Este estudo serviu de base a uma interpretação abstracta (em termos gestuais) das vogais nasais do PE e permitiu também esclarecer aspectos cruciais relacionados com a sua produção e percepção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The electronic storage of medical patient data is becoming a daily experience in most of the practices and hospitals worldwide. However, much of the data available is in free-form text, a convenient way of expressing concepts and events, but especially challenging if one wants to perform automatic searches, summarization or statistical analysis. Information Extraction can relieve some of these problems by offering a semantically informed interpretation and abstraction of the texts. MedInX, the Medical Information eXtraction system presented in this document, is the first information extraction system developed to process textual clinical discharge records written in Portuguese. The main goal of the system is to improve access to the information locked up in unstructured text, and, consequently, the efficiency of the health care process, by allowing faster and reliable access to quality information on health, for both patient and health professionals. MedInX components are based on Natural Language Processing principles, and provide several mechanisms to read, process and utilize external resources, such as terminologies and ontologies, in the process of automatic mapping of free text reports onto a structured representation. However, the flexible and scalable architecture of the system, also allowed its application to the task of Named Entity Recognition on a shared evaluation contest focused on Portuguese general domain free-form texts. The evaluation of the system on a set of authentic hospital discharge letters indicates that the system performs with 95% F-measure, on the task of entity recognition, and 95% precision on the task of relation extraction. Example applications, demonstrating the use of MedInX capabilities in real applications in the hospital setting, are also presented in this document. These applications were designed to answer common clinical problems related with the automatic coding of diagnoses and other health-related conditions described in the documents, according to the international classification systems ICD-9-CM and ICF. The automatic review of the content and completeness of the documents is an example of another developed application, denominated MedInX Clinical Audit system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A importância e preocupação dedicadas à autonomia e independência das pessoas idosas e dos pacientes que sofrem de algum tipo de deficiência tem vindo a aumentar significativamente ao longo das últimas décadas. As cadeiras de rodas inteligentes (CRI) são tecnologias que podem ajudar este tipo de população a aumentar a sua autonomia, sendo atualmente uma área de investigação bastante ativa. Contudo, a adaptação das CRIs a pacientes específicos e a realização de experiências com utilizadores reais são assuntos de estudo ainda muito pouco aprofundados. A cadeira de rodas inteligente, desenvolvida no âmbito do Projeto IntellWheels, é controlada a alto nível utilizando uma interface multimodal flexível, recorrendo a comandos de voz, expressões faciais, movimentos de cabeça e através de joystick. Este trabalho teve como finalidade a adaptação automática da CRI atendendo às características dos potenciais utilizadores. Foi desenvolvida uma metodologia capaz de criar um modelo do utilizador. A investigação foi baseada num sistema de recolha de dados que permite obter e armazenar dados de voz, expressões faciais, movimentos de cabeça e do corpo dos pacientes. A utilização da CRI pode ser efetuada em diferentes situações em ambiente real e simulado e um jogo sério foi desenvolvido permitindo especificar um conjunto de tarefas a ser realizado pelos utilizadores. Os dados foram analisados recorrendo a métodos de extração de conhecimento, de modo a obter o modelo dos utilizadores. Usando os resultados obtidos pelo sistema de classificação, foi criada uma metodologia que permite selecionar a melhor interface e linguagem de comando da cadeira para cada utilizador. A avaliação para validação da abordagem foi realizada no âmbito do Projeto FCT/RIPD/ADA/109636/2009 - "IntellWheels - Intelligent Wheelchair with Flexible Multimodal Interface". As experiências envolveram um vasto conjunto de indivíduos que sofrem de diversos níveis de deficiência, em estreita colaboração com a Escola Superior de Tecnologia de Saúde do Porto e a Associação do Porto de Paralisia Cerebral. Os dados recolhidos através das experiências de navegação na CRI foram acompanhados por questionários preenchidos pelos utilizadores. Estes dados foram analisados estatisticamente, a fim de provar a eficácia e usabilidade na adequação da interface da CRI ao utilizador. Os resultados mostraram, em ambiente simulado, um valor de usabilidade do sistema de 67, baseado na opinião de uma amostra de pacientes que apresentam os graus IV e V (os mais severos) de Paralisia Cerebral. Foi também demonstrado estatisticamente que a interface atribuída automaticamente pela ferramenta tem uma avaliação superior à sugerida pelos técnicos de Terapia Ocupacional, mostrando a possibilidade de atribuir automaticamente uma linguagem de comando adaptada a cada utilizador. Experiências realizadas com distintos modos de controlo revelaram a preferência dos utilizadores por um controlo compartilhado com um nível de ajuda associado ao nível de constrangimento do paciente. Em conclusão, este trabalho demonstra que é possível adaptar automaticamente uma CRI ao utilizador com claros benefícios a nível de usabilidade e segurança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um sistema de localização baseado exclusivamente em ultrassons, não necessitando de recorrer a qualquer outra tecnologia. Este sistema de localização foi concebido para poder operar em ambientes onde qualquer outra tecnologia não pode ser utilizada ou o seu uso está condicionado, como são exemplo aplicações subaquáticas ou ambientes hospitalares. O sistema de localização proposto faz uso de uma rede de faróis fixos permitindo que estações móveis se localizem. Devido à necessidade de transmissão de dados e medição de distâncias foi desenvolvido um pulso de ultrassons robusto a ecos que permite realizar ambas as tarefas com sucesso. O sistema de localização permite que as estações móveis se localizem escutando apenas a informação em pulsos de ultrassons enviados pelos faróis usando para tal um algoritmo baseado em diferenças de tempo de chegada. Desta forma a privacidade dos utilizadores é garantida e o sistema torna-se completamente independente do número de utilizadores. Por forma a facilitar a implementação da rede de faróis apenas será necessário determinar manualmente a posição de alguns dos faróis, designados por faróis âncora. Estes irão permitir que os restantes faróis, completamente autónomos, se possam localizar através de um algoritmo iterativo de localização baseado na minimização de uma função de custo. Para que este sistema possa funcionar como previsto será necessário que os faróis possam sincronizar os seus relógios e medir a distância entre eles. Para tal, esta tese propõe um protocolo de sincronização de relógio que permite também obter as medidas de distância entre os faróis trocando somente três mensagens de ultrassons. Adicionalmente, o sistema de localização permite que faróis danificados possam ser substituídos sem comprometer a operabilidade da rede reduzindo a complexidade na manutenção. Para além do mencionado, foi igualmente implementado um simulador de ultrassons para ambientes fechados, o qual provou ser bastante preciso e uma ferramenta de elevado valor para simular o comportamento do sistema de localização sobre condições controladas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Tecidos é um domínio multidisciplinar que combina especialistas de múltiplos domínios, no sentido de se desenvolverem substitutos biológicos para a regeneração, reparação ou restauração de funções de órgãos ou tecidos. A estratégia mais comum em engenharia de tecidos consiste na utilização de matrizes de suporte (scaffolds) tridimensionais, biocompatíveis, biodegradáveis e altamente porosos, os quais servem de substrato físico ao processo de adesão, proliferação e diferenciação celular. O objectivo deste trabalho de investigação centrou-se na produção e caracterização de scaffolds de PCL e de PCL com partículas de biovidro, abordando um processo de biofabricação, que teve por base o princípio da extrusão. Utilizou-se para tal um equipamento patenteado pelo Centro para o Desenvolvimento Rápido e Sustentado do Produto (CDRsp) designado Bioextruder. Trata-se de um sistema concebido para a produção de matrizes com ou sem encapsulamento de células, de uma forma automática, flexível e integrada. As estruturas obtidas caracterizaram-se quanto às propriedades térmicas, químicas, morfológicas e mecânicas. Realizaram-se ainda, testes de bioactividade e testes de degradação in vitro. Os resultados obtidos mostram que as condições de processamento não induzem qualquer alteração no que diz respeito às propriedades térmicas e químicas dos materiais, que o aumento do teor de biovidro conduz a uma fragmentação da matriz polimérica num período de tempo mais curto, que os scaffolds obtidos apresentam uma geometria bem definida e uma distribuição de poros uniforme. Demonstra-se assim, que a combinação da matriz polimérica (PCL) com o biovidro, sob a forma de scaffolds é promissora para aplicações em Engenharia de Tecidos e Medicina Regenerativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis addresses the problem of word learning in computational agents. The motivation behind this work lies in the need to support language-based communication between service robots and their human users, as well as grounded reasoning using symbols relevant for the assigned tasks. The research focuses on the problem of grounding human vocabulary in robotic agent’s sensori-motor perception. Words have to be grounded in bodily experiences, which emphasizes the role of appropriate embodiments. On the other hand, language is a cultural product created and acquired through social interactions. This emphasizes the role of society as a source of linguistic input. Taking these aspects into account, an experimental scenario is set up where a human instructor teaches a robotic agent the names of the objects present in a visually shared environment. The agent grounds the names of these objects in visual perception. Word learning is an open-ended problem. Therefore, the learning architecture of the agent will have to be able to acquire words and categories in an openended manner. In this work, four learning architectures were designed that can be used by robotic agents for long-term and open-ended word and category acquisition. The learning methods used in these architectures are designed for incrementally scaling-up to larger sets of words and categories. A novel experimental evaluation methodology, that takes into account the openended nature of word learning, is proposed and applied. This methodology is based on the realization that a robot’s vocabulary will be limited by its discriminatory capacity which, in turn, depends on its sensors and perceptual capabilities. An extensive set of systematic experiments, in multiple experimental settings, was carried out to thoroughly evaluate the described learning approaches. The results indicate that all approaches were able to incrementally acquire new words and categories. Although some of the approaches could not scale-up to larger vocabularies, one approach was shown to learn up to 293 categories, with potential for learning many more.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.