196 resultados para Knowledge Networks
Resumo:
In the last two decades, small strain shear modulus became one of the most important geotechnical parameters to characterize soil stiffness. Finite element analysis have shown that in-situ stiffness of soils and rocks is much higher than what was previously thought and that stress-strain behaviour of these materials is non-linear in most cases with small strain levels, especially in the ground around retaining walls, foundations and tunnels, typically in the order of 10−2 to 10−4 of strain. Although the best approach to estimate shear modulus seems to be based in measuring seismic wave velocities, deriving the parameter through correlations with in-situ tests is usually considered very useful for design practice.The use of Neural Networks for modeling systems has been widespread, in particular within areas where the great amount of available data and the complexity of the systems keeps the problem very unfriendly to treat following traditional data analysis methodologies. In this work, the use of Neural Networks and Support Vector Regression is proposed to estimate small strain shear modulus for sedimentary soils from the basic or intermediate parameters derived from Marchetti Dilatometer Test. The results are discussed and compared with some of the most common available methodologies for this evaluation.
Resumo:
The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al
Resumo:
In the last two decades, small strain shear modulus became one of the most important geotechnical parameters to characterize soil stiffness. Finite element analysis have shown that in-situ stiffness of soils and rocks is much higher than what was previously thought and that stress-strain behaviour of these materials is non-linear in most cases with small strain levels, especially in the ground around retaining walls, foundations and tunnels, typically in the order of 10−2 to 10−4 of strain. Although the best approach to estimate shear modulus seems to be based in measuring seismic wave velocities, deriving the parameter through correlations with in-situ tests is usually considered very useful for design practice.The use of Neural Networks for modeling systems has been widespread, in particular within areas where the great amount of available data and the complexity of the systems keeps the problem very unfriendly to treat following traditional data analysis methodologies. In this work, the use of Neural Networks and Support Vector Regression is proposed to estimate small strain shear modulus for sedimentary soils from the basic or intermediate parameters derived from Marchetti Dilatometer Test. The results are discussed and compared with some of the most common available methodologies for this evaluation.
Resumo:
Dissertação de Mestrado em Gestão e Internacionalização de Empresas
Resumo:
Os Mercados Eletrónicos atingiram uma complexidade e nível de sofisticação tão elevados, que tornaram inadequados os modelos de software convencionais. Estes mercados são caracterizados por serem abertos, dinâmicos e competitivos, e constituídos por várias entidades independentes e heterogéneas. Tais entidades desempenham os seus papéis de forma autónoma, seguindo os seus objetivos, reagindo às ocorrências do ambiente em que se inserem e interagindo umas com as outras. Esta realidade levou a que existisse por parte da comunidade científica um especial interesse no estudo da negociação automática executada por agentes de software [Zhang et al., 2011]. No entanto, a diversidade dos atores envolvidos pode levar à existência de diferentes conceptualizações das suas necessidades e capacidades dando origem a incompatibilidades semânticas, que podem prejudicar a negociação e impedir a ocorrência de transações que satisfaçam as partes envolvidas. Os novos mercados devem, assim, possuir mecanismos que lhes permitam exibir novas capacidades, nomeadamente a capacidade de auxiliar na comunicação entre os diferentes agentes. Pelo que, é defendido neste trabalho que os mercados devem oferecer serviços de ontologias que permitam facilitar a interoperabilidade entre os agentes. No entanto, os humanos tendem a ser relutantes em aceitar a conceptualização de outros, a não ser que sejam convencidos de que poderão conseguir um bom negócio. Neste contexto, a aplicação e exploração de relações capturadas em redes sociais pode resultar no estabelecimento de relações de confiança entre vendedores e consumidores, e ao mesmo tempo, conduzir a um aumento da eficiência da negociação e consequentemente na satisfação das partes envolvidas. O sistema AEMOS é uma plataforma de comércio eletrónico baseada em agentes que inclui serviços de ontologias, mais especificamente, serviços de alinhamento de ontologias, incluindo a recomendação de possíveis alinhamentos entre as ontologias dos parceiros de negociação. Este sistema inclui também uma componente baseada numa rede social, que é construída aplicando técnicas de análise de redes socias sobre informação recolhida pelo mercado, e que permite melhorar a recomendação de alinhamentos e auxiliar os agentes na sua escolha. Neste trabalho são apresentados o desenvolvimento e implementação do sistema AEMOS, mais concretamente: • É proposto um novo modelo para comércio eletrónico baseado em agentes que disponibiliza serviços de ontologias; • Adicionalmente propõem-se o uso de redes sociais emergentes para captar e explorar informação sobre relações entre os diferentes parceiros de negócio; • É definida e implementada uma componente de serviços de ontologias que é capaz de: • o Sugerir alinhamentos entre ontologias para pares de agentes; • o Traduzir mensagens escritas de acordo com uma ontologia em mensagens escritas de acordo com outra, utilizando alinhamentos previamente aprovados; • o Melhorar os seus próprios serviços recorrendo às funcionalidades disponibilizadas pela componente de redes sociais; • É definida e implementada uma componente de redes sociais que: • o É capaz de construir e gerir um grafo de relações de proximidade entre agentes, e de relações de adequação de alinhamentos a agentes, tendo em conta os perfis, comportamento e interação dos agentes, bem como a cobertura e utilização dos alinhamentos; • o Explora e adapta técnicas e algoritmos de análise de redes sociais às várias fases dos processos do mercado eletrónico. A implementação e experimentação do modelo proposto demonstra como a colaboração entre os diferentes agentes pode ser vantajosa na melhoria do desempenho do sistema e como a inclusão e combinação de serviços de ontologias e redes sociais se reflete na eficiência da negociação de transações e na dinâmica do mercado como um todo.
Resumo:
A crowdsourcing innovation intermediary performs mediation activities between companies that have a problem to solve or that seek a business opportunity, and a group of people motivated to present ideas based on their knowledge, experience and wisdom, taking advantage of technology sharing and collaboration emerging from Web2.0. As far as we know, most of the present intermediaries don´t have, yet, an integrated vision that combines the creation of value through community development, brokering and technology transfer. In this paper we present a proposal of a knowledge repository framework for crowdsourcing innovation that enables effective support and integration of the activities developed in the process of value creation (community building, brokering and technology transfer), modeled using ontology engineering methods.
Resumo:
High-content analysis has revolutionized cancer drug discovery by identifying substances that alter the phenotype of a cell, which prevents tumor growth and metastasis. The high-resolution biofluorescence images from assays allow precise quantitative measures enabling the distinction of small molecules of a host cell from a tumor. In this work, we are particularly interested in the application of deep neural networks (DNNs), a cutting-edge machine learning method, to the classification of compounds in chemical mechanisms of action (MOAs). Compound classification has been performed using image-based profiling methods sometimes combined with feature reduction methods such as principal component analysis or factor analysis. In this article, we map the input features of each cell to a particular MOA class without using any treatment-level profiles or feature reduction methods. To the best of our knowledge, this is the first application of DNN in this domain, leveraging single-cell information. Furthermore, we use deep transfer learning (DTL) to alleviate the intensive and computational demanding effort of searching the huge parameter's space of a DNN. Results show that using this approach, we obtain a 30% speedup and a 2% accuracy improvement.
Resumo:
A presente tese pretende fazer uma abordagem ao crescimento dos consumos de energia elétrica, que se tem verificado, nos últimos anos, no setor das telecomunicações e das tecnologias de informação; devido ao constante crescimento das redes, dos equipamentos a ela ligados e do tráfego que nelas transita. Num contexto de globalização da economia, no qual, as redes de telecomunicações e de energia elétrica são dois dos maiores contribuintes, a presente tese procura encontrar enquadramentos e soluções para um dos maiores desafios que a humanidade enfrenta atualmente, e que em parte, é consequente dessa globalização: encontrar novas fontes e formas de utilização da energia, -particularmente da energia elétrica - para que a humanidade continue a usufruir, de uma forma sustentável, dos benefícios que a mesma proporciona. Na primeira parte, procura-se fazer uma abordagem que utiliza fontes de informação e conhecimento, do mercado global, nomeadamente, entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, que abrangessem os três maiores mercados mundiais – União Europeia, Estados Unidos da América e Ásia-Pacífico. Considerou-se fundamental fazê-lo, por se tratar de uma dissertação no âmbito de um Mestrado com o selo de garantia EUR-ACE. Ao longo da dissertação analisou-se a temática da eficiência energética nas redes de telecomunicações e das tecnologias de informação e comunicação, um tema cada vez mais pertinente, já que o número de pessoas com ligações à Internet, já supera os 3 mil milhões, e as redes passaram a ser o meio por onde são transmitidos, a cada segundo, terabytes de sinais de voz, dados e vídeo. Procurou-se encontrar as linhas de orientação que estão a ser traçadas, para otimizar os consumos energéticos, de um complexo sistema convergente de redes e serviços, formado por entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, onde nem sempre as fronteiras estão perfeitamente definidas. Perante a constatação da realidade exposta, analisou-se as políticas energéticas desenvolvidas nos últimos anos, pelos vários players do mercado das telecomunicações, das tecnologias de informação e dos sistemas elétricos de energia bem como algumas métricas e objetivos comumente aceites. viii São analisados os contributos das partes interessadas, para o desenvolvimento de políticas energéticas eficazes, por forma a permitirem uma implementação, que considere o funcionamento dos equipamentos como um todo, e não de uma forma isolada como tradicionalmente o assunto era abordado. As especificidades na forma como funcionam as redes de telecomunicações e respetivos equipamentos, são expostas sobre várias óticas, comprovando-se que a temática da eficiência energética é uma das áreas mais difíceis lidar, de todas as consideradas nas políticas energéticas. Demonstrou-se que muitos dos equipamentos não estão otimizados em termos de gestão de energia, procurou-se evidenciar as consequências dessa realidade, uma vez que os equipamentos referidos, têm a necessidade de estar permanentemente a ser alimentados pela rede de energia elétrica, para garantir as funções para que foram projetados. Da pesquisa efetuada e descrita ao longo da dissertação, constatamos o empenho de toda a comunidade científica, operadores e agências de energia e de telecomunicações, em resolver o problema, já que há a consciencialização de que o ritmo de crescimento da rede e equipamentos terminais, é superior ao registado na melhoria da eficiência energética dos vários componentes e equipamentos terminais. Na segunda parte do relatório da tese, procurou-se testar a aplicabilidade das normas e recomendações dos organismos que tutelam a atividade a nível global - algumas publicadas nos últimos 2 anos - a um caso prático. Um edifício hospitalar de média dimensão. Foi elaborada uma aplicação informática, que suportada numa metodologia padronizada, seja capaz de fazer a avaliação da eficiência energética dos equipamentos serviços de telecomunicações de informação e comunicação em funcionamento do hospital. Por dificuldades de disponibilidade dos responsáveis do edifício, os resultados ficaram aquém do esperado. Conseguiu-se desenhar a aplicação, inventariar-se apenas parte dos equipamentos. Demonstrou-se que, a forma como alguns equipamentos estão a ser utilizados, não cumprem regras de utilização racional e eficiente. Procurou-se sensibilizar alguns dos responsáveis, para a necessidade de alterar comportamentos e prosseguir o processo de inventariação, por forma, a que o trabalho iniciado atinja os objetivos propostos.
Resumo:
A personalização é um aspeto chave de uma interação homem-computador efetiva. Numa era em que existe uma abundância de informação e tantas pessoas a interagir com ela, de muitas maneiras, a capacidade de se ajustar aos seus utilizadores é crucial para qualquer sistema moderno. A criação de sistemas adaptáveis é um domínio bastante complexo que necessita de métodos muito específicos para ter sucesso. No entanto, nos dias de hoje ainda não existe um modelo ou arquitetura padrão para usar nos sistemas adaptativos modernos. A principal motivação desta tese é a proposta de uma arquitetura para modelação do utilizador que seja capaz de incorporar diferentes módulos necessários para criar um sistema com inteligência escalável com técnicas de modelação. Os módulos cooperam de forma a analisar os utilizadores e caracterizar o seu comportamento, usando essa informação para fornecer uma experiência de sistema customizada que irá aumentar não só a usabilidade do sistema mas também a produtividade e conhecimento do utilizador. A arquitetura proposta é constituída por três componentes: uma unidade de informação do utilizador, uma estrutura matemática capaz de classificar os utilizadores e a técnica a usar quando se adapta o conteúdo. A unidade de informação do utilizador é responsável por conhecer os vários tipos de indivíduos que podem usar o sistema, por capturar cada detalhe de interações relevantes entre si e os seus utilizadores e também contém a base de dados que guarda essa informação. A estrutura matemática é o classificador de utilizadores, e tem como tarefa a sua análise e classificação num de três perfis: iniciado, intermédio ou avançado. Tanto as redes de Bayes como as neuronais são utilizadas, e uma explicação de como as preparar e treinar para lidar com a informação do utilizador é apresentada. Com o perfil do utilizador definido torna-se necessária uma técnica para adaptar o conteúdo do sistema. Nesta proposta, uma abordagem de iniciativa mista é apresentada tendo como base a liberdade de tanto o utilizador como o sistema controlarem a comunicação entre si. A arquitetura proposta foi desenvolvida como parte integrante do projeto ADSyS - um sistema de escalonamento dinâmico - utilizado para resolver problemas de escalonamento sujeitos a eventos dinâmicos. Possui uma complexidade elevada mesmo para utilizadores frequentes, daí a necessidade de adaptar o seu conteúdo de forma a aumentar a sua usabilidade. Com o objetivo de avaliar as contribuições deste trabalho, um estudo computacional acerca do reconhecimento dos utilizadores foi desenvolvido, tendo por base duas sessões de avaliação de usabilidade com grupos de utilizadores distintos. Foi possível concluir acerca dos benefícios na utilização de técnicas de modelação do utilizador com a arquitetura proposta.
Resumo:
A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.
Resumo:
As afluências indevidas resultantes direta ou indiretamente da precipitação são um dos principais fatores que provocam graves problemas de carácter ambiental, estrutural e económico, no âmbito de um bom funcionamento dos sistemas separativos de saneamento e tratamento de águas residuais urbanas. Ao longo dos anos, com a expansão do serviço de saneamento à população, tem sido reconhecido que os caudais excedentes às redes de drenagem de águas residuais e estações de tratamento são um problema grave e para isso estão a ser criados critérios cada vez mais exigentes no domínio da gestão e operação destes sistemas de saneamento. Para uma melhor compreensão sobre a incidência das afluências indevidas nos sistemas de saneamento e nas estações de tratamento de águas residuais, é necessário realizar estudos de quantificação e caracterização no sistema de esgotos. Com a necessidade de compreender a plenitude e natureza deste problema, tornou-se necessário desenvolver metodologias com o objetivo de melhorar a eficiência e eficácia hidráulica dos sistemas de drenagem e de tratamento. Este trabalho tem como objetivo a análise quantitativa das afluências indevidas, recorrendo a um caso de estudo de uma bacia de drenagem de águas residuais. Para adquirir mais conhecimento sobre o tema foi necessário recolher várias metodologias existentes de maneira a selecionar, estudar e aplicar o método mais vantajoso. Nesta dissertação, foram utilizados dados disponibilizados pela SIMRIA, no que respeita aos caudais de bombagem da estação elevatória a que afluiu a rede em estudo, e pela INDAQUA Feira, no que respeita aos dados de precipitação.
Resumo:
Numa sociedade com elevado consumo energético, a dependência de combustíveis fósseis em evidente diminuição de disponibilidades é um tema cada vez mais preocupante, assim como a poluição atmosférica resultante da sua utilização. Existe, portanto, uma necessidade crescente de recorrer a energias renováveis e promover a otimização e utilização de recursos. A digestão anaeróbia (DA) de lamas é um processo de estabilização de lamas utilizado nas Estações de Tratamento de Águas Residuais (ETAR) e tem, como produtos finais, a lama digerida e o biogás. Maioritariamente constituído por gás metano, o biogás pode ser utilizado como fonte de energia, reduzindo, deste modo, a dependência energética da ETAR e a emissão de gases com efeito de estufa para a atmosfera. A otimização do processo de DA das lamas é essencial para o aumento da produção de biogás. No presente relatório de estágio, as Redes Neuronais Artificiais (RNA) foram aplicadas ao processo de DA de lamas de ETAR. As RNA são modelos simplificados inspirados no funcionamento das células neuronais humanas e que adquirem conhecimento através da experiência. Quando a RNA é criada e treinada, produz valores de output aproximadamente corretos para os inputs fornecidos. Uma vez que as DA são um processo bastante complexo, a sua otimização apresenta diversas dificuldades. Foi esse o motivo para recorrer a RNA na otimização da produção de biogás nos digestores das ETAR de Espinho e de Ílhavo da AdCL, utilizando o software NeuralToolsTM da PalisadeTM, contribuindo, desta forma, para a compreensão do processo e do impacto de algumas variáveis na produção de biogás.
Resumo:
O sector do turismo é uma área francamente em crescimento em Portugal e que tem desenvolvido a sua divulgação e estratégia de marketing. Contudo, apenas se prende com indicadores de desempenho e de oferta instalada (número de quartos, hotéis, voos, estadias), deixando os indicadores estatísticos em segundo plano. De acordo com o “ Travel & tourism Competitiveness Report 2013”, do World Economic Forum, classifica Portugal em 72º lugar no que respeita à qualidade e cobertura da informação estatística, disponível para o sector do Turismo. Refira-se que Espanha ocupa o 3º lugar. Uma estratégia de mercado, sem base analítica, que sustente um quadro de orientações específico e objetivo, com relevante conhecimento dos mercados alvo, dificilmente é compreensível ou até mesmo materializável. A implementação de uma estrutura de Business Intelligence que permita a realização de um levantamento e tratamento de dados que possibilite relacionar e sustentar os resultados obtidos no sector do turismo revela-se fundamental e crucial, para que sejam criadas estratégias de mercado. Essas estratégias são realizadas a partir da informação dos turistas que nos visitam, e dos potenciais turistas, para que possam ser cativados no futuro. A análise das características e dos padrões comportamentais dos turistas permite definir perfis distintos e assim detetar as tendências de mercado, de forma a promover a oferta dos produtos e serviços mais adequados. O conhecimento obtido permite, por um lado criar e disponibilizar os produtos mais atrativos para oferecer aos turistas e por outro informá-los, de uma forma direcionada, da existência desses produtos. Assim, a associação de uma recomendação personalizada que, com base no conhecimento de perfis do turista proceda ao aconselhamento dos melhores produtos, revela-se como uma ferramenta essencial na captação e expansão de mercado.
Resumo:
As technology advances not only do new standards and programming styles appear but also some of the previously established ones gain relevance. In a new Internet paradigm where interconnection between small devices is key to the development of new businesses and scientific advancement there is the need to find simple solutions that anyone can implement in order to allow ideas to become more than that, ideas. Open-source software is still alive and well, especially in the area of the Internet of Things. This opens windows for many low capital entrepreneurs to experiment with their ideas and actually develop prototypes, which can help identify problems with a project or shine light on possible new features and interactions. As programming becomes more and more popular between people of fields not related to software there is the need for guidance in developing something other than basic algorithms, which is where this thesis comes in: A comprehensive document explaining the challenges and available choices of developing a sensor data and message delivery system, which scales well and implements the delivery of critical messages. Modularity and extensibility were also given much importance, making this an affordable tool for anyone that wants to build a sensor network of the kind.
Resumo:
A gestão e monitorização de redes é uma necessidade fundamental em qualquer organização, quer seja grande ou pequena. A sua importância tem de ser refletida na eficiência e no aumento de informação útil disponível, contribuindo para uma maior eficácia na realização das tarefas em ambientes tecnologicamente avançados, com elevadas necessidades de desempenho e disponibilidade dos recursos dessa tecnologia. Para alcançar estes objetivos é fundamental possuir as ferramentas de gestão de redes adequadas. Nomeadamente ferramentas de monitorização. A classificação de tráfego também se revela fundamental para garantir a qualidade das comunicações e prevenir ataques indesejados aumentando assim a segurança nas comunicações. Paralelamente, principalmente em organizações grandes, é relevante a inventariação dos equipamentos utilizados numa rede. Neste trabalho pretende-se implementar e colocar em funcionamento um sistema autónomo de monitorização, classificação de protocolos e realização de inventários. Todas estas ferramentas têm como objetivo apoiar os administradores e técnicos de sistemas informáticos. Os estudos das aplicações que melhor se adequam à realidade da organização culminaram num acréscimo de conhecimento e aprendizagem que irão contribuir para um melhor desempenho da rede em que o principal beneficiário será o cidadão.