999 resultados para Formatos de representação e transferência de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Vias de Comunicação e Transportes

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia e Gestão Industrial

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação da Mestre Gabriela Pinheiro

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A separação de dados hiperespectrais pretende determinar quais as substâncias presentes numa imagem e quais as suas concentrações em cada pixel. Esta comunicação apresenta um método não-supervisionado, denominado de Análise de Componentes Dependentes (DECA), que efectua a separação destes dados automaticamente. Este método assume que cada pixel é uma mistura linear das assinaturas (reflectâncias ou radiâncias) das substâncias presentes pesadas pelas respectivas concentrações (abundâncias). Estas abundâncias são modeladas por misturas de distribuições de Dirichlet, que por si garantem as restrições de não-negatividade e soma unitária impostas pelo processo de aquisição. A matriz de assinaturas é estimada por um algoritmo Esperança-Maximização generalizado (GEM). O método DECA tem um desempenho melhor que os métodos baseados em análise de componentes independentes e que os métodos baseados na geometria dos dados. Nesta comunicação apresentam-se resultados desta metodologia, com dados simulados (baseados em reflectâncias espectrais da base de dados do laboratório USGS) e com dados hiperespectrais reais adquiridos pelo sensor AVIRIS, ilustrando a potencialidade da técnica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO A Esclerose Múltipla (EM) é uma doença desmielinizante crónica do Sistema Nervoso Central (SNC), provocada, em grande parte, por um ataque imuno-mediado contra diversos elementos da bainha de mielina. Dentro dos alvos antigénicos desta resposta autoimune, vários componentes proteicos e lipídicos da mielina têm vindo a ser identificados ao longo dos anos, entre os quais se destacam a proteína básica de mielina(MBP), glicoproteína ligodendrocitária da mielina (MOG), proteína proteolipídica (PLP) e glicoproteína associada à mielina (MAG). Com o desenvolvimento do modelo animal de Encefalomielite Autoimune Experimental (EAE), diversas terapias antigénio-específicas foram desenhadas, baseadas na modificação benéfica da resposta autoimune contra a mielina, tais como a administração de mielina ou seus componentes, os copolímeros terapêuticos, os ligandos peptídeos alterados e, recentemente, a vacinação com ácido desoxirribonucleico (ADN) codificador de proteínas de mielina, integrado em plasmídeos e purificado para administração parentérica. Neste trabalho, apresentamos os resultados de um extenso conjunto de experiências, subordinadas a dois temas fundamentais: 1) avaliação do potencial terapêutico, e dos mecanismos de acção, da vacinação tolerizadora com ADN codificador de proteínas de mielina (MBP, MOG, PLP, MAG) na EAE, e da associação desta vacinação com a administração de ADN de citocinas Th2, ou de oligonucleótidos imunomoduladores; 2) identificação e caracterização da resposta imune contra um novo componente da mielina com potencial antigénico, a proteína inibidora do recrescimento axonal, Nogo-A. No que respeita à vacinação com ADN, os nossos resultados comprovam a eficácia desta terapêutica antigénio-específica na prevenção e tratamento da EAE. Os seus mecanismos de acção incluem, entre outros, a supressão anérgica da proliferação antigénioespecífica dos linfócitos T anti-mielina (no modo de prevenção da doença), o enviesamento Th2 da resposta imune (quando co-administrada com a vacina de ADN codificadora da citocina IL-4, funcionando como terapia génica local), e a redução da diversificação de epítopos da resposta humoral anti-mielina, avaliada através de myelin spotted arrays. A associação das vacinas de ADN com oligonucleótidos imunomoduladores GpG, desenvolvidos para contrariar as sequências CpG imunoestimuladoras presentes no vector de vacinação, levou à melhoria da sua eficácia terapêutica, devida, provavelmente, ao efeito estimulador preferencial dos oligonucleótidos GpG sobre linfócitos Th2 e sobre células reguladoras NK-T. Com base nestes resultados a vacinação com ADN foi desenvolvida para o tratamento da EM em humanos, com ensaios clínicos a decorrerem neste momento. Em relação à proteína Nogo-A, estudos de estrutura primária e de previsão de antigenicidade identificaram a região Nogo-66 como alvo antigénico potencial para a EAE. Nas estirpes de ratinho SJL/J e C57BL/6, fomos capazes de induzir sinais clínicos e histológicos de EAE após imunização com os epítopos encefalitogénicos Nogo1-22, Nogo23- 44 e Nogo45-66, utilizando protocolos de quebra de tolerância imune. Ao mesmo tempo, identificámos e caracterizámos uma resposta linfocitária T específica contra os antigénios contidos na região Nogo-66, e uma resposta linfocitária B com diversificação intra e intermolecular a vários determinantes presentes noutras proteínas da mielina. A transferência adoptiva de linhas celulares Th2 anti-Nogo45-66, levou à melhoria clínica e histológica da EAE em animais recipientes induzidos com outros antigénios de mielina, após migração destas células para o SNC. Estes dados comprovam a importância da Nogo-66 como antigénio na EAE, e a eficácia de terapias antigénio-específicas nela baseadas. No seu conjunto, os nossos resultados confirmam o potencial terapêutico das vacinas de ADN codificadoras de proteínas de mielina, bem como a importância dos encefalitogénios contidos na proteína Nogo-A para a fisiopatologia da EAE e da EM, com eventual relevância para o desenvolvimento de novas terapias antigénio-específicas. O aperfeiçoamento futuro destas terapias poderá levar, eventualmente, a uma capacidade de manipulação da resposta imune que permita o tratamento eficaz das doenças inflamatórias desmielinizantes, como a Esclerose Múltipla. ABSTRACT Multiple Sclerosis (MS) is a chronic demyelinating disease of the Central Nervous System (CNS), caused, mainly, by an immune-mediated attack against several elements of the myelin sheath. Among the antigenic targets for this autoimmune response, several proteic and lipidic myelin components have been identified throughout the years, of which myelin basic protein (MBP), myelin oligodendrocyte glycoprotein (MOG), proteolipidic protein (PLP), and myelin associated glycoprotein (MAG) are the best characterized. With the development of the animal model for MS, Experimental Autoimmune Encephalomyelitis (EAE), several antigen-specific therapies have been designed, based on beneficial modifications of the autoimmune response against myelin. These have included myelin and myelin component administration, therapeutic copolymers, altered peptide ligands and, more recently, vaccination with myelin-protein encoding deoxyribonucleic acid (DNA), integrated into plasmids and purified for parenteral administration. In this work we present the results of an extensive series of experiments, subordinate to two fundamental areas: 1) evaluating the therapeutic potential, and mechanisms of action, of tolerizing myelin protein (MBP, MOG, PLP, MAG) DNA vaccination in EAE, alone and in association with Th2 cytokine DNA administration, or immunomodulatory oligonucleotides; 2) identifying and characterizing the immuneresponse against a new myelin component with antigenic potential, the axonal regrowth inhibitor Nogo-A. Regarding DNA vaccination, our results prove the efficacy of this antigen-specific therapy for the prevention and treatment of EAE. Its mechanisms of action include, among others, anergic suppression of antigen-specific T-cell proliferation against myelin (in prevention mode), Th2 biasing of the immune response (when co-administered with the IL- 4 codifying DNA vaccine, acting as local gene therapy), and reduction of epitope spreading of the anti-myelin antibody response, assessed by myelin spotted arrays. The combination of myelin DNA vaccination with the administration of GpG immunomodulatory oligonucleotides, designed to counteract immunostimulatory CpG motifs present in the vaccination vector, led to an improvement in therapeutic efficacy, probably due to the preferential stimulatory effect of GpG oligonucleotides on Th2 lymphocytes and on regulatory NK-T cells. Based on these results, tolerizing DNA vaccination is being developed for human use, with ongoing clinical trials. As concerns the Nogo-A protein, based on studies of primary structure and prediction of antigenicity, we identified the Nogo-66 region (responsible for the most of the inhibitory capacity of this protein) as a potential antigenic target for EAE. In the SJL/Jand C57BL/6 mouse strains, we were able to induce clinical and histological signs of EAE,after immunization with the encefalitogenic epitopes Nogo1-22, Nogo23-44 and Nogo45-66,using a tolerance breakdown protocol. Concomitantly, we identified and characterized a specific T cell response against these antigens, together with a B cell response which showed extensive intra and intermolecular epitope spread to several determinants present in other myelin proteins. Adoptive transfer of nti-Nogo45-66 Th2 cell lines resulted in clinical and histological improvement of EAE in recipient animals induced with other myelin antigens, after intraparenchymal CNS migration of anti-Nogo cells. These data confirm the relevance of Nogo-66 as an antigen in EAE, as well as the efficacy of antigenspecific therapies based on the response against this protein.In conclusion, our results substantiate the therapeutic potential of myelin-encoding DNA vaccination, as well as the importance of encefalitogenic epitopes present in the Nogo-A protein for the pathophysiology of EAE and MS, with potential relevance for the creation of new antigen specific-therapies. The future development of these therapies may eventually lead to a degree of manipulation of the immune response that allows the effective treatment of autoimmune, inflammatory, demyelinating diseases, such as Multiple Sclerosis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientado pela professora Doutora Maria Teresa Ribeiro Pereira Esta dissertação não inclui as críticas e sugestões feitas pelo Júri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actas do Encontro de Algebristas Portugueses 2005, Braga, Portugal, Centro de Matemática da Universidade do Minho, (2006),p. 105-116

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado em Estudos Anglo-Portugueses

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, as estratégias que as empresas optam por seguir para a maximização de recursos materiais e humanos, podem representar a diferença entre o sucesso e o fracasso. A seleção de fornecedores é um fator bastante crítico para o desempenho da empresa compradora, sendo por vezes necessária a resolução de problemas que apresentam um elevado grau de complexidade. A escolha dos métodos a ser utilizados e a eleição dos critérios mais relevantes foi feito com base no estudo de diversos autores e nas repostas obtidas a um inquérito online difundido por uma amostra de empresas portuguesas, criado especificamente para compreender quais os fatores que mais peso tinham nas decisões de escolha de parceiros. Além disso, os resultados adquiridos desta forma foram utilizados para conceder mais precisão às ponderações efetuadas na ferramenta de seleção, na escolha dos melhores fornecedores introduzidos pelos utilizadores da mesma. Muitos estudos literários propõem o uso de métodos para simplificar a tarefa de seleção de fornecedores. Esta dissertação aplica o estudo realizado nos métodos de seleção, nomeadamente o Simple Multi-Attribute Rating Technique (SMART) e Analytic Hierarchy Process (AHP), necessários para o desenvolvimento de uma ferramenta de software online que permitia, a qualquer empresa nacional, obter uma classificação para os seus fornecedores perante um conjunto de critérios e subcritérios.