63 resultados para Possibilidade
Resumo:
Nos últimos anos o consumo de energia elétrica produzida a partir de fontes renováveis tem aumentado significativamente. Este aumento deve-se ao impacto ambiental que recursos como o petróleo, gás, urânio, carvão, entre outros, têm no meio ambiente e que são notáveis no diaa- dia com as alterações climáticas e o aquecimento global. Por sua vez, estes recursos têm um ciclo de vida limitado e a dada altura tornar-se-ão escassos. A preocupação de uma melhoria contínua na redução dos impactos ambientais levou à criação de Normas para uma gestão mais eficiente e sustentável do consumo de energia nos edifícios. Parte da eletricidade vendida pelas empresas de comercialização é produzida através de fontes renováveis, e com a recente publicação do Decreto de Lei nº 153/2014 de 20 outubro de 2014 que regulamenta o autoconsumo, permitindo que também os consumidores possam produzir a sua própria energia nas suas residências para reduzir os custos com a compra de eletricidade. Neste contexto surgiram os edifícios inteligentes. Por edifícios inteligentes entende-se que são edifícios construídos com materiais que os tornam mais eficientes, possuem iluminação e equipamentos elétricos mais eficientes, e têm sistemas de produção de energia que permitem alimentar o próprio edifício, para um consumo mais sustentado. Os sistemas implementados nos edifícios inteligentes visam a monitorização e gestão da energia consumida e produzida para evitar desperdícios de consumo. O trabalho desenvolvido visa o estudo e a implementação de Redes Neuronais Artificiais (RNA) para prever os consumos de energia elétrica dos edifícios N e I do ISEP/GECAD, bem como a previsão da produção dos seus painéis fotovoltáicos. O estudo feito aos dados de consumo permitiu identificar perfis típicos de consumo ao longo de uma semana e de que forma são influenciados pelo contexto, nomeadamente, com os dias da semana versus fim-de-semana, e com as estações do ano, sendo analisados perfis de consumo de inverno e verão. A produção de energia através de painéis fotovoltaicos foi também analisada para perceber se a produção atual é suficiente para satisfazer as necessidades de consumo dos edifícios. Também foi analisada a possibilidade da produção satisfazer parcialmente as necessidades de consumos específicos, por exemplo, da iluminação dos edifícios, dos seus sistemas de ar condicionado ou dos equipamentos usados.
Resumo:
O problema das afluências indevidas exerce um impacto considerável, não apenas sobre os sistemas de drenagem de águas residuais, mas também sobre o meio ambiente e as populações e infraestruturas presentes nas áreas de influência. Trata-se de um problema com consequências de dimensões técnica/estrutural, ambiental, social, económico-financeira e de saúde pública. Assim, a minimização das afluências indevidas deve constituir uma preocupação da gestão dos sistemas, visto que a mesma permite que a capacidade de transporte e tratamento instalada seja utilizada para as funções inicialmente planeadas (drenagem e tratamento das águas residuais domésticas) e inclui os benefícios de diminuir os custos associados, melhorar a eficiência dos serviços prestados e rentabilizar as infraestruturas existentes. Do ponto de vista económico, há a possibilidade de intervenção nos casos em que o custo de transporte e/ou tratamento do caudal associado às afluências indevidas é superior ao custo da sua eliminação. Neste sentido, um dos objetivos a atingir pela entidade gestora deverá ser o da redução gradual de afluências indevidas, numa perspetiva de custo-benefício. Neste contexto, o objetivo do presente trabalho - a definição preliminar das afluências indevidas ao Subsistema de Gaia Litoral (incluindo a estimativa dos custos associados) - assume uma importância elevada no controlo e redução dos caudais em excesso, visto que a mesma é parte integrante do plano de minimização de afluências indevidas. No decorrer do trabalho, foram implementados os métodos mais adequados ao tipo e natureza da informação utilizada, de forma a cumprir os objetivos estabelecidos inicialmente. Os resultados obtidos permitiram formular uma definição das afluências indevidas assente em volumes em excesso e seus custos, parâmetros de avaliação e indicadores de desempenho.
Resumo:
O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.
Resumo:
A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.
Resumo:
O estágio foi um complemento da formação académica, disponibilizado pelo Instituto Superior de Engenharia do Porto, permitindo o contacto e a inserção do estagiário no mercado de trabalho. Este relatório retrata o percurso realizado durante o estágio, e representa o culminar do Curso de Mestrado em Engenharia civil no Ramo de Gestão de Obras. O estágio, com duração de 6 meses, realizou-se na empresa Cogedir – Gestão de Projetos S.A. sediada em Vila Nova de Gaia. A integração na empresa permitiu adquirir e desenvolver competências que habilitaram o estagiário a prestar funções de direção e fiscalização de obras, pois durante o período de estágio foram atribuídas diversas funções do ramo de gestão, como a coordenação e gestão de obras, resposta a concursos públicos e privados, orçamentação, entre outras, sendo que o estágio se focalizou sobretudo na coordenação e gestão da execução de um empreendimento destinado a um Hotel e Spa na região de Águeda. Este relatório tenta demonstrar que os conhecimentos obtidos ao longo do curso foram devidamente interiorizados e aplicados em ambiente empresarial e para isso serão abordadas as principais funções, responsabilidades e atividades desempenhadas ao longo da execução do empreendimento em foco tentando dar exemplos de cada atividade. Para além disso haverá lugar a um capítulo inteiramente dedicado à gestão do planeamento a nível de prazos e custos de uma das fases de execução do empreendimento. Essa gestão será realizada com recurso à ferramenta de gestão designada por Método EVM, incorporada no programa Microsoft Project 2013. Este método oferece a possibilidade de cálculo de vários indicadores de um projeto e será explicado de forma intuitiva, simples e completa, possibilitando a sua fácil consulta ao longo da vida profissional.
Resumo:
Dadas as condições actuais do mercado de trabalho, o conhecimento empírico é cada vez mais um factor distintivo na carteira de habilitações de um engenheiro recém-graduado. Desta forma, a possibilidade de realização de um estágio em ambiente empresarial ganha toda uma nova dimensão no panorama académico, apresentando-se como uma excelente oportunidade de obtenção de experiência e conhecimento de causa num momento imediatamente anterior à saída da universidade e à entrada no mundo profissional. Neste âmbito, apresenta-se o presente relatório, referente ao estágio desenvolvido sob alçada da empresa Electrolinhas S. A. durante a construção do Parque Eólico do Pisco. Este estágio enquadra-se no 2º Ano do Mestrado em Engenharia Civil – ramo de Infraestruturas, do departamento de Engenharia Civil do Instituto Superior de Engenharia do Porto. Ao longo de 6 meses, de Fevereiro a Julho de 2015, foi possível acompanhar o desenrolar da obra de construção de um parque eólico, da perspectiva da fiscalização. Este estágio tem especial interesse dado tratar-se de uma obra de grande dimensão, com diversas particularidades ao nível do planeamento e da execução, descritas ao longo dos próximos capítulos.
Resumo:
Actualmente e cada vez mais, são concebidos e utilizados programas de cálculo automático de Engenharia na realização de projectos de edifícios, que proporcionam aos engenheiros uma possibilidade avançada e rápida de execução, simulação e análise de edifícios para estruturas complexas e de elevada dimensão. Contudo, será necessário que os resultados deverão ser fiáveis de modo a não existirem consequências no comportamento real da estrutura a longo prazo. O presente relatório de estágio, refere-se à verificação aos estados limites de utilização (tensões, fendilhação e deformação) segundo o Eurocódigo 2, de uma estrutura porticada em betão armado, nomeadamente de um pórtico central pertencente a essa mesma estrutura recorrendo ao programa de cálculo automático da Autodesk o Robot Structural Analysis Professional 2014. O objectivo principal do presente trabalho consiste na comparação de resultados referente aos estados limites últimos e de utilização, pelos diferentes módulos de dimensionamento Required e Provided Reinforcement presentes no programa Robot. É destacado no final do relatório, considerando uma disposição de armadura optada analiticamente para o pórtico, uma análise comparativa de resultados referente aos estados limites de utilização entre o comando Typical Reinforcement do módulo Provided Reinforcement e por expressões analíticas. Refere-se contudo que, o procedimento do método analítico teve como base de cálculo uma aplicação desenvolvida para a verificação de elementos de betão armado aos estados limites de utilização segundo o Eurocódigo 2, com o nome de XD-Conserv tendo sido também comparado os resultados finais do mesmo.
Resumo:
A presente dissertação realizada na empresa Continental-Indústria Têxtil do Ave, S.A., teve como objetivo a otimização energética da secção das malhas. Esta secção divide-se em duas áreas, a tricotagem e a ramulagem. Os artigos produzidos diferem no seu peso específico, composição e condições de operação, sendo os artigos A, B e C compostos por poliéster e termofixados a 190ºC e os artigos D e E compostos por poliéster e algodão, com uma temperatura de operação de 205ºC. Numa primeira etapa estudou-se o funcionamento da máquina de termofixação – a râmula – que opera em trabalho contínuo a 40 m/min. Esta máquina tem incorporado um permutador de calor, que aquece o ar fresco de entrada com os gases de exaustão das estufas. Posteriormente efetuou-se o levantamento energético de cada artigo, para as áreas de tricotagem e ramulagem. Verificou-se que os artigos D e E, pela sua constituição, são os que apresentam um consumo específico superior, em tep/ton. Entre as várias utilidades consumidas (gás natural, eletricidade e ar comprimido) o gás natural representa mais de 50% do consumo de energia total necessário para a produção de cada artigo. Após a completa análise aos consumos energéticos da râmula, foram realizados ensaios de otimização, tendo-se concluído que a diminuição do caudal de exaustão pode atingir valores de poupança anual de gás natural na ordem dos 3.000 €. Com o objetivo de avaliar o consumo de gás natural, não sendo possível a realização experimental, foram feitas simulações com base em alterações na corrente de entrada de ar fresco no permutador. Foi também estudada a possibilidade de isolamento e revestimento térmico da conduta exterior, projetada para o reaproveitamento do ar dos compressores, tendo-se obtido um orçamento de 2.500 €. Admitindo-se uma gama de temperaturas entre os 40ºC e os 60ºC, com um caudal de insuflação de 30%, obteve-se um payback entre os 0,97 e os 3,28 anos. Numa segunda fase admitiu-se uma temperatura média de 50ºC, aumentando o caudal de insuflação até 100%. O período de retorno obtido variou entre os 0,33 e os 1,38 anos, podendo as poupanças anuais atingirem os 7.600 €.
Resumo:
O presente trabalho tem como objetivo o cultivo da microalga Chlorella zofingiensis, e a avaliação da sua potencial aplicação na produção de biodiesel e de produtos de valor acrescentado, de entre os quais se destacam os antioxidantes. Com o intuito da produção de biocombustível é necessário efetuar o cultivo da microalga num volume que permita a obtenção de elevada quantidade de biomassa para a concretização do trabalho. Além deste biocombustível, existe ainda a possibilidade de valorização de alguns produtos com valor comercial, como é o caso da astaxantina, a saber na área farmacêutica, alimentar ou até mesmo cosmética. O cultivo da microalga foi feito em meio Bold’s Basal Medium (BBM), inicialmente em matrazes de 5 L e, quando se obteve uma cultura suficientemente densa, inocularam-se fotobiorreatores de 50 L. Conseguiu-se atingir uma concentração máxima de 0,76 g/L, no reator de 5 L, após cerca de 6 semanas de ensaio. Por sua vez, em fotobiorreatores de 50 L, a concentração máxima obtida foi de 0,4 g/L, após 4 semanas de ensaio. Nestas culturas foi possível obter-se uma percentagem lipídica de 7 %, apresentado concentração de pigmentos por litro de cultura na ordem dos 10 mg/L, 4 mg/L e 2 mg/L de clorofila a, clorofila b e carotenoides totais, respetivamente. Com esta percentagem lipídica recuperaram-se 400 mg de óleo, obtendo-se posteriormente 280 mg de biodiesel. Pela análise à amostra de biodiesel obtida foi possível obter o perfil lipídico desta microalga, quando cultivada em meio BBM, sendo 41% de ácido palmítico (C16:0), 9% de ácido esteárico (C18:0), 27% de ácido oleico (C18:1) e 23% de ácido linoleico (C18:2). Os resultados obtidos mostram que a Chlorella zofingiensis é uma microalga com interesse potencial para a produção de clorofila e carotenóides, mas não para o óleo para a produção de biodiesel.
Resumo:
O processo de tingimento do algodão utilizando corantes reactivos é um dos processos mais utilizados na indústria têxtil, no entanto a grande quantidade de cloreto de sódio utilizada neste processo leva ao desenvolvimento de estudos que consistem na eliminação ou redução deste electrólito. Foi então com base nestes factos que se pensou na possibilidade de aplicação de colagénio hidrolisado, obtido através do retalho tripa (um dos subprodutos mais importantes da indústria do couro), no processo de tingimento do algodão com corantes reativos. Assim sendo, realizou-se o estudo de hidrólise, ou seja, procedeu-se à hidrólise de colagénio de retalho tripa desencalado por via química (hidrólise alcalina) e por via termoquímica (hidrólise enzimática). Para cada tipo de hidrólise estudou-se, separadamente, o efeito de três parâmetros (concentração de base - NaOH ou de enzima, tempo e temperatura), sendo depois avaliado o rendimento de hidrólise. Com base nos resultados obtidos, selecionaram-se as melhores condições para produzir colagénio hidrolisado. As melhores condições para a obtenção de colagénio hidrolisado foi recorrendo à hidrólise alcalina, a uma temperatura de 80 ⁰C utilizando 2% NaOH, durante 3 horas. A segunda fase do estudo experimental consistiu na aplicação do colagénio hidrolisado no processo de tingimento mencionado acima. Esta fase, por sua vez, inclui o estudo de duas formas de proceder. A primeira metodologia consistiu na cationização da fibra de algodão através de um pré-tratamento e, seguidamente tingimento. A segunda consistiu na adição de colagénio ao banho de tingimento. Nenhuma das metodologias utilizadas foi suficiente para cumprir o objetivo principal do trabalho, no entanto foi recorrendo ao pré-tratamento que se conseguiu os melhores resultados.
Resumo:
Um Sistema de Informação consiste num sistema capaz de armazenar, organizar e estruturar dados para ajudar a responder às necessidades das empresas, passando também pela capacidade de resposta às questões diárias das empresas. Assim, um Sistema de Informação pode ser definido como o software que ajuda a organizar e analisar dados, tendo como objetivo fornecer informação útil na altura certa para que possa ser utilizada para a tomada de decisões ou para uma gestão mais eficiente dos diversos fluxos que uma empresa pode conter. Neste sentido, o projeto apresentado centra-se no desenho e construção de um Sistema de Informação capaz de gerir o negócio de uma empresa do setor alimentar, mais propriamente do setor da transformação de carnes. Foi desenvolvido em Oracle ADF, de forma a aproveitar as vantagens inerentes à tecnologia e ao desenvolvimento web. Sendo uma tecnologia relativamente nova no mercado e dominada por poucos, a sua utilização neste momento pode tornar-se uma grande vantagem. Para o desenvolvimento da aplicação foi realizado o levantamento e análise de requisitos, foi criada a base de dados capaz de suportar o funcionamento do software e desenvolvido um sistema de login, capaz de gerir as sessões de cada utilizador. Foi implementado um processo de introdução e edição de informação, nomeadamente o registo de entradas, transformações e saídas. Contemplou-se também uma secção com dados mestre da empresa com a possibilidade de inserção, atualização e/ou remoção. Além disso, foram incorporadas validações em todos os processos que são usados pelos utilizadores, de modo a evitar a existência de dados incoerentes ou duplicados. Relativamente à lógica de negócio, foi embutida na aplicação de forma a permitir consultar a informação de forma clara, rápida e em diversos lugares, reduzindo tempo e tarefas ao colaborador/utilizador, visto que os processos foram automatizados. Com a implementação deste Sistema de Informação, a empresa pode usufruir de um sistema integrado capaz de gerir e controlar todo o seu processo produtivo, reduzindo custos e desperdícios, aumentando a produtividade e eficiência.
Resumo:
Neste trabalho foi considerada a possibilidade de incorporar serviços remotos, normalmente associados a serviços web e cloud computing, numa solução local que centralizasse os vários serviços num único sistema e permitisse aos seus utilizadores consumir e configurar os mesmos, quer a partir da rede local, quer remotamente a partir da Internet. Desta forma seria possível conciliar o acesso a partir de qualquer local com internet, característico nas clouds, com a simplicidade de concentrar num só sistema vários serviços que são por norma oferecidos por entidades distintas e ainda permitir aos seus utilizadores o controlo e configuração sobre os mesmos. De forma a validar que este conceito é viável, prático e funcional, foram implementadas duas componentes. Um cliente que corre nos dispositivos dos utilizadores e que proporciona a interface para consumir os serviços disponíveis e um servidor que irá conter e prestar esses serviços aos clientes. Estes serviços incluem lista de contactos, mensagens instantâneas, salas de conversação, transferência de ficheiros, chamadas e conferências de voz e vídeo, pastas remotas, pastas sincronizadas, backups, pastas partilhadas, VoD (Video-on Demand) e AoD (Audio-on Demand). Para o desenvolvimento do cliente e do servidor foi utilizada a framework Qt que recorre à linguagem de programação C++ e ao conjunto de bibliotecas que possui, para o desenvolvimento de aplicações multiplataforma. Para as comunicações entre clientes e servidor, foi utilizado o protocolo XMPP (Extensible Messaging and Presence Protocol), pela forma da biblioteca qxmpp e do servidor XMPP ejabberd. Pelo facto de conter um conjunto de centenas de extensões atualmente ativas que auferem funcionalidades como salas de conversação, transferências de ficheiros e até estabelecer sessões multimédia, graças à sua flexibilidade permitiu ainda a criação de extensões personalizada necessárias para algumas funcionalidades que se pretendeu implementar. Foi ainda utilizado no servidor a framework ffmpeg para suportar algumas funcionalidades multimédia. Após a implementação do cliente para Windows e Linux, e de implementar o servidor em Linux foi realizado um conjunto de testes funcionais para perceber se as funcionalidades e seus mecanismos funcionam corretamente. No caso onde a análise da performance e do consumo de recursos era importante, foram realizados testes de performance e testes de carga.
Resumo:
Perante o elevado consumo de materiais naturais no processo e produtos na área da construção civil, o reaproveitamento de resíduos é uma das soluções a ser estudada. As cinzas agroindustriais têm lugar de destaque entre estes resíduos, pois têm a possibilidade de aplicação em materiais cimentícios, reduzindo assim o consumo de cimento de Portland. O presente estudo debruça-se sobre a substituição parcial (1,5% e 5%) de cimento de Portland por cinzas de casca de amêndoa. Realizaram-se provetes com diferentes tipos de argamassas: (i) uma de controlo sem substituição de cimento (ARF); (ii) uma com 1,5% de substituição parcial de cimento por cinzas de casca de amêndoa (CCA 1,5%); (iii) e uma com 5% de substituição parcial de cimento por cinza de casca de amêndoa (CCA 5%). Executaram-se ensaios para resistências mecânicas aos 3, 7, 14, 28 e 41 dias de idade. A nível químico pode-se concluir que esta cinza de casca de amêndoa não apresentou qualquer potencial pozolânico. A trabalhabilidade na generalidade diminui ligeiramente, contendo cinza de casca de amêndoa, mas ainda assim considerando-se de fácil manuseamento. Em relação às resistências mecânicas, pode-se concluir que o ideal é a substituição parcial de cimento com 1,5%, pois as resistências diminuem com o uso de uma maior percentagem de substituição, ou seja, o ideal é substituir em pequenas percentagens. Com os dados obtidos, conclui-se que as cinzas testadas não apresentam características necessárias para serem consideradas pozolanas e se será viável a sua utilização mesmo como filer.
Resumo:
A tese desenvolvida tem como foco fornecer os meios necessários para extrair conhecimento contidos no histórico académico da instituição transformando a informação em algo simples e de fácil leitura para qualquer utilizador. Com o progresso da sociedade, as escolas recebem milhares de alunos todos os anos que terão de ser orientados e monitorizados pelos dirigentes das instituições académicas de forma a garantir programas eficientes e adequados para o progresso educacional de todos os alunos. Atribuir a um docente a responsabilidade de actuar segundo o historial académico dos seus alunos não é plausível uma vez que um aluno consegue produzir milhares de registos para análise. O paradigma de mineração de dados na educação surge com a necessidade de otimizar os recursos disponíveis expondo conclusões que não se encontram visiveis sem uma análise acentuada e cuidada. Este paradigma expõe de forma clara e sucinta os dados estatísticos analisados por computador oferecendo a possibilidade de melhorar as lacunas na qualidade de ensino das instituições. Esta dissertação detalha o desenvolvimento de uma ferramente de inteligência de negócio capaz de, através de mineração de dados, analisar e apresentar conclusões pertinentes de forma legível ao utilizador.
Resumo:
Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.