153 resultados para Mestrado em Engenharia Informática

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O elevado custo da operação de recolha de resíduos urbanos e a necessidade de cumprir metas dispostas em instrumentos legais são duas motivações que conduzem à necessidade de otimizar o serviço da recolha de resíduos. A otimização da recolha de resíduos é um problema de elevada complexidade de resolução que envolve a análise de redes de transporte. O presente trabalho propõe soluções de otimização da recolha de resíduos urbanos indiferenciados, a partir de um caso de estudo: o percurso RSU I 06 do município de Aveiro. Para este efeito, recorreu-se a uma aplicação informática de representação e análise geográfica: software ArcGIS denominada ArcMap e sua extensão Network Analyst, desenvolvida para calcular circuitos otimizados entre pontos de interesse. O trabalho realizado de aplicação do Network Analyst inclui a apresentação de duas das suas funcionalidades (Route e Vehicle Routing Problem). Em relação ao atual circuito de recolha e com base nos ensaios efetuados, foi possível concluir que esta aplicação permite obter circuitos de recolha otimizados mais curtos ou com menor duração. Contudo, ao nível da gestão permitiu concluir que, com a atual capacidade de contentorização, seria viável reduzir a frequência de recolha de seis vezes por semana para metade, dividindo a área de recolha em duas áreas, de acordo com as necessidades de cada local, reduzindo ainda mais o esforço de recolha. A aplicação do Network Analyst ao caso de estudo, permitiu concluir que é um software com muito interesse no processo de gestão da recolha de resíduos urbanos, apesar de apresentar algumas restrições de aplicação e que a qualidade/eficácia do procedimento de otimização depende da qualidade dos dados de entrada, em particular do descritivo geográfico disponível para os arruamentos e, em larga medida, também depende do modelo de gestão considerado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese surge no contexto de sistemas e serviços web. O objectivo é propor uma solução para o problema da integração de informação de diversas fontes, numa plataforma web única, personalizável e adaptável ao utilizador. Nos casos de empresas ou organizações que tenham para diferentes tarefas, diferentes sistemas de informação independentes, o problema da integração de informação surge com a necessidade de integração destes numa única interface disponibilizada aos seus utilizadores. A integração de serviços numa mesma interface pressupõe que haja comunicação entre um sistema central (que fornece a interface) e os diversos sistemas existentes (que detêm a totalidade – ou parte – da informação a apresentar). Assim, será necessário garantir a identidade do utilizador a cada um dos serviços apresentados, bem como assegurar que cada utilizador tem à sua disposição de forma centralizada, apenas e só a informação e operações a que realmente tem acesso em cada um dos sistemas. Trata-se de uma plataforma que pretende por um lado, fornecer a informação correcta e orientada ao utilizador e, por outro lado, garantir que a organização que suporta o sistema consegue informar e interagir com os seus utilizadores de forma mais eficaz. O cenário adoptado é a Universidade de Aveiro. Esta pretende disponibilizar uma plataforma electrónica, onde os diferentes interlocutores (alunos, docentes, funcionários, ex-alunos, etc.) possam ter acesso a informação dirigida e orientada aos seus interesses e funções na Universidade. De modo a que cada utilizador seja realmente visto como um utilizador único, serão estudados e comparados serviços de modelação de utilizador e perfis de utilizador. Será proposto um serviço de modelação de utilizador e uma lógica de criação de perfis de utilizador, distintos do existente no estado de arte. Esta lógica conjuga a personalização da interface por parte do utilizador, com a gestão de operações e definição de políticas de segurança por parte da organização, de forma independente relativamente ao sistema de informação subjacente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O trabalho apresentado nesta dissertação teve por objectivo principal a concepção, modelação e desenvolvimento de uma plataforma de middleware que permitisse a integração de sistemas de informação, em todos os seus níveis (dados, lógico e apresentação), perfazendo uma federação de bibliotecas digitais distribuídas e ecléticas. Para este fim, foram estudadas as várias abordagens de modelação e organização das bibliotecas digitais, assim como os diversos sistemas e tecnologias de suporte existentes no momento inicial do trabalho. Compreendendo a existência de muitas lacunas ainda neste domínio, nomeadamente ao nível da interoperabilidade de sistemas heterogéneos e integração da semântica de metadados, decidiu-se proceder a um trabalho de investigação e desenvolvimento que pudesse apresentar eventuais soluções para o preenchimento de tais lacunas. Desta forma, surgem neste trabalho duas tecnologias, o XML e o Dublin Core, que servem de base a todas as restantes tecnologias usadas para a interoperabilidade e para a integração. Ainda utilizando estas tecnologias base, foram estudados e desenvolvidos meios simples, mas eficientes, de salvaguarda, indexação e pesquisa de informação, tentando manter a independência face aos grandes produtores de bases de dados, que só por si não resolvem alguns dos problemas mais críticos da investigação no domínio das bibliotecas digitais. ABSTRACT: The main objective of the work presented in this dissertation is the design, modulation and development of a middleware framework to allow information systems interoperability, in all their scope (data, logic and presentation), to accomplish a distributed and eclectic digital libraries federation. Several modulations and organizations were approached, and several support systems and technologies were studied. Understanding the existence of many gaps in this domain, namely in heterogeneous information systems interoperation and metadata semantic integration, it was decided to conduct a research and development work, which, eventually, could present some solutions to fill in these gaps. In this way, two technologies, XML and Dublin Core, appear to serve as the basis of all remaining technologies, to interoperate and to achieve semantic integration. Using yet these technologies, it was also studied and developed simple means, but efficient ones, to save, index and query information, preserving the independence from major data base producers, which by their selves don’t solve critical problems in the digital libraries research domain.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In an information-driven society where the volume and value of produced and consumed data assumes a growing importance, the role of digital libraries gains particular importance. This work analyzes the limitations in current digital library management systems and the opportunities brought by recent distributed computing models. The result of this work is the implementation of the University of Aveiro integrated system for digital libraries and archives. It concludes by analyzing the system in production and proposing a new service oriented digital library architecture supported in a peer-to-peer infrastructure

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No presente trabalho propõe-se estudar a tensão superficial de vários perfluorocarbonetos lineares, cíclicos, aromáticos e [alfa]-substituídos bem como líquidos iónicos com o catião imidazolium em comum. Apesar do seu interesse inerente, informação sobre esta propriedade para os compostos seleccionados é escassa e quando disponível apresenta discrepâncias consideráveis entre si. As medições foram realizadas no intervalo de temperaturas (283 to 353) K usando o método do anel de Du Noüy. Para os fluorocarbonetos, os dados experimentais demonstram que a estrutura molecular é o factor primordial no comportamento da superfície uma vez que os fluorocarbonetos aromáticos apresentam a tensão superficial mais elevada, seguida pelos fluorocarbonetos cíclicos e substituídos. Os perfluorocarbonetos lineares apresentam os menores valores de tensão superficial, aumentando ligeiramente com o aumento do número de carbonos. Os líquidos iónicos estudados foram seleccionados com o objectivo de fornecerem um estudo compreensivo sobre a influência do tamanho da cadeia alquílica do catião, o número de substituições no catião e a influência do anião. A influência do conteúdo de água na tensão superficial foi estudada em função da temperatura e da fracção molar de água para o liquido iónico mais hidrofóbico, [omim][PF6], e para o mais higroscópico, [bmim][PF6]. As funções termodinâmicas de superfície, como a entropia e entalpia de superfície, foram derivadas a partir da dependência da tensão superficial com a temperatura. Os dados obtidos para o fluorocarbonetos foram comparados com a correlação proposta por Faizullin, apresentando um desvio inferior a 4 % e demonstrando a sua aplicabilidade para com esta classe de compostos. A metodologia adoptada neste trabalho requer o conhecimento das densidades dos compostos de modo a aplicar a necessária correcção hidrostática. Contudo, para os líquidos iónicos esta informação é limitada ou mesmo inexistente. Por este motivo realizaram-se medições de densidade em função da pressão (0.10 < p/MPa < 10.0) e da temperatura (293.15 < T/K < 393.15). Desta dependência, as propriedades termodinâmicas, tais como compressibilidade isotérmica, expansividade isobárica, coeficiente térmico da pressão e dependência da capacidade calorífica com a pressão foram investigadas. A influência do teor de água na densidade foi também estudada para o líquido iónico mais hidrofóbico, [omim][PF6]. Um modelo simples de volume-ideal foi aplicado de forma preditiva para os volumes molares dos líquidos iónicos, em condições ambientais, descrevendo bem os dados experimentais. ABSTRACT: This work aims at studying the surface tension of some linear, cyclic, aromatic, [alfa]-substituted perfluorocarbons and imidazolium based ionic liquids. Despite its fundamental interest, information about this property for these compounds is scarce and the available data present strong discrepancies among each other. The measurements were carried out in the temperature range (283 to 353) K with the Du Noüy ring method. For the fluorocarbons, the analysis of the experimental data shows that the molecular structure is the main factor in the surface since the aromatic fluorocompounds present the highest surface tensions, followed by the cyclic and substituted fluorocompounds. The linear n-perfluoroalkanes exhibit the lowest surface tension values, slightly increasing with the carbon number. The set of selected ionic liquids was chosen to provide a comprehensive study of the influence of the cation alkyl chain length, the number of cation substitutions and the anion on the properties under study. The influence of water content in the surface tension was studied for several ILs as a function of the temperature as well as a function of water mole fraction, for the most hydrophobic IL investigated, [omim][PF6], and one hygroscopic IL, [bmim][PF6]. The surface thermodynamic functions such as surface entropy and enthalpy were derived from the temperature dependence of the surface tension values. The perfluorocarbons experimental data were compared against the Faizullin correlation, and it is shown that this correlation describes the measured surface tensions with deviations inferior to 4 %. The methodology adopted in this work requires the knowledge of the densities of the compounds under study in order to apply an hydrostatic correction. However, for ionic liquids these information is scarse and in some cases unavailable. Therefore, experimental measurements of the pressure (0.10 < p/MPa < 10.0) and temperature (293.15 < T/K < 393.15) dependence of the density and derived thermodynamic properties, such as the isothermal compressibility, the isobaric expansivity, the thermal pressure coefficient, and the pressure dependence of the heat capacity of several imidazolium-based ionic were determined. The influence of water content in the density was also studied for the most hydrophobic IL used, [omim][PF6]. A simple ideal-volume model was employed for the prediction of the imidazolium molar volumes at ambient conditions, which proved to agree well with the experimental results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No trabalho efectuado estudou-se a densificação de compósitos de mulite reforçada com carboneto de silício. A tenacidade à fractura dos corpos de mulite pode ser aumentada através da introdução de inclusões densas, contudo estas afectam de forma significativa a densificação da matriz que as rodeia. Dadas as dificuldades encontradas na obtenção de corpos densos de mulite pura e, em particular, da mulite com inclusões densas, através da sinterização sem pressão, recorreu-se à prensagem a quente. A densificação do material monolítico foi estudada para diversas condições de prensagem a quente (1500°C - 1600°C; 15MPa - 25MPa), tendo-se avaliado a influência da temperatura e da pressão. Observou-se que se obtêm corpos de mulite pura (SA-193CR), com densidades próximas da teórica para temperaturas iguais ou superiores a 1550°C, suspeitando-se da presença de vestígios de fase líquida. Tentou-se ainda identificar quais os mecanismos responsáveis pela densificação da mulite durante a prensagem a quente. Os resultados sugerem que o mecanismo de densificação se altera com o aumento da temperatura de 1500°C para 1550°C. Para a temperatura de 1500°C obteve-se, para o expoente da tensão (n), o valor de 1, sugerindo que o mecanismo densificação predominante, a esta temperatura, é a fluência de Coble, a fluência de Nabarro-Herring ou o escorregamento na fronteira de grão. Aumentando a temperatura de 1500°C para 1550°C o valor do expoente da tensão passou de 1 para 3, sugerindo que a a 1550°C o mecanismo que controla a densificação da mulite é o fluxo plástico, a menos que este incremento de n se deva a alterações microestruturais súbitas. Estudou-se a influência das inclusões densas no empacotamento dos compactos em verde. Observou-se que as fibrilas de SiC dificultam o empacotamento originado um compacto com uma menor densidade em verde e poros de tamanho mais elevado do que o material monolítico. No caso dos compósitos de mulite reforçada com partículas ou com plaquetas constatou-se que as densidades dos compósitos em verde são superiores à exibida pela mulite; contudo a densidade da matriz destes compósitos é inferior à apresentada pelo material monolítico. Nos compósitos de mulite reforçada com 22.5% em volume de carboneto de silício estudou-se a influência da temperatura e da pressão no seu comportamento durante a densificação. O efeito da morfologia (partículas, plaquetas e fibrilas) e da quantidade (15%, 22.5% e 30% em volume) e da 2- fase na densificação dos compósitos, foi também um dos pontos abordados no trabalho efectuado. A adição de 15% em volume de partículas ou de fibrilas de SiC não altera de uma forma significativa o comportamento do compacto durante a densificação. Nos compósitos de mulite reforçada com 22.5% em volume de 2a fase, quer a adição de fibrilas quer a adição de partículas de SiC inibe a densificação do compacto. Este efeito é mais acentuado para as menores pressões e temperaturas de prensagem a quente. Para as temperaturas de 1500°C e 1550°C as partículas inibem mais a densificação do compósito do que as fibrilas. Pelo contrário, à temperatura de 1600°C as fibrilas apresentam um efeito inibidor mais acentuado do que as partículas. A adição de 22.5% em volume de plaquetas de SiC não inibe a densificação do compacto. Presume-se que os comportamentos observados têm origem nas impurezas existentes na superfície das inclusões, no empacotamento em verde, na fase líquida proveniente da mulite e num efeito da distância média entre as inclusões. Nos compósitos com 30% em volume de 2ª fase todas as morfologias ensaiadas inibem a densificação do compacto, sendo o maior efeito inibidor provocado pelas fibrilas e o menor pelas plaquetas. Determinou-se a microdureza de Vickers e a tenacidade à fractura da mulite e dos compósitos de mulite reforçada com SiC de modo a tentar avaliar o grau de tencificação conseguido e a influência da quantidade e da morfologia da fase de reforço nestas propriedades mecânicas. A microdureza de Vickers é pouco afectada pela presença da fase de reforço mais dura, independentemente da sua morfologia e da sua quantidade. Os resultados obtidos são muito inferiores aos que seriam previstos pela regra das misturas, pensando-se que este comportamento resulta da localização, junto à interface matriz/inclusões, da porosidade residual das amostras. A adição de inclusões densas de carboneto de silício à mulite promoveu um aumento da tenacidade à fractura, relativamente ao valor apresentado pelo material monolítico. A morfologia que parece ser mais eficaz é a exibida pelas plaquetas, apresentando o compósito de mulite reforçada com 30% em volume de plaquetas um incremento de 54%, relativamente ao material monolítico. A morfologia menos efectiva são as fibrilas. Para todas as morfologias de fase de reforço ensaiadas o aumento do conteúdo promove um incremento da tenacidade à fractura do compósito.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese considera a investigação, concepção e desenvolvimento de novas estratégias de aprendizagem para o ensino superior, apresentadas sob a forma de Roteiros de Aprendizagem. As abordagens às estratégias de ensino e aprendizagem, suportadas pelas tecnologias, alteram-se a cada momento, sendo uma das principais razões, o crescimento de organizações, empresas e instituições, o que implica a produção de mais conhecimento e onde os trabalhadores começam a transformar-se em trabalhadores de conhecimento, necessitando de se adaptarem à rápida procura e partilha de informação. Da experiência passada, é reconhecido que estratégias e processos pedagógicos são tarefas que podem ser criadas, enriquecidas e dinamizadas pelos actores que participam no processo de aprendizagem: gestores de curso, professores e estudantes. O desafio proposto aos diferentes actores envolvidos acelera também as mudanças que ocorrem na educação, potenciando uma sociedade baseada no conhecimento. O presente trabalho teve início no momento em que foi necessário estabelecer orientações para a aprendizagem durante o semestre em disciplinas tecnológicas, para um amplo grupo heterogéneo de alunos. De forma a tornar a aprendizagem mais eficiente para os alunos e tendo em conta os seus antecedentes, foi necessário desenvolver novas estratégias. Os Roteiros de Aprendizagem tendem a promover o auto-estudo e o estudo acompanhado, dotando o aluno com capacidade para procurar informação relevante e aprender os conteúdos disponibilizados. O resultado deste trabalho pretende fomentar um processo estimulante de ensino e aprendizagem, acompanhado por uma gestão organizada dos materiais de ensino.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os Sistemas Embarcados Distribuídos (SEDs) estão, hoje em dia, muito difundidos em vastas áreas, desde a automação industrial, a automóveis, aviões, até à distribuição de energia e protecção do meio ambiente. Estes sistemas são, essencialmente, caracterizados pela integração distribuída de aplicações embarcadas, autónomas mas cooperantes, explorando potenciais vantagens em termos de modularidade, facilidade de manutenção, custos de instalação, tolerância a falhas, entre outros. Contudo, o ambiente operacional onde se inserem estes tipos de sistemas pode impor restrições temporais rigorosas, exigindo que o sistema de comunicação subjacente consiga transmitir mensagens com garantias temporais. Contudo, os SEDs apresentam uma crescente complexidade, uma vez que integram subsistemas cada vez mais heterogéneos, quer ao nível do tráfego gerado, quer dos seus requisitos temporais. Em particular, estes subsistemas operam de forma esporádica, isto é, suportam mudanças operacionais de acordo com estímulos exteriores. Estes subsistemas também se reconfiguram dinamicamente de acordo com a actualização dos seus requisitos e, ainda, têm lidar com um número variável de solicitações de outros subsistemas. Assim sendo, o nível de utilização de recursos pode variar e, desta forma, as políticas de alocação estática tornam-se muito ineficientes. Consequentemente, é necessário um sistema de comunicação capaz de suportar com eficácia reconfigurações e adaptações dinâmicas. A tecnologia Ethernet comutada tem vindo a emergir como uma solução sólida para fornecer comunicações de tempo-real no âmbito dos SEDs, como comprovado pelo número de protocolos de tempo-real que foram desenvolvidos na última década. No entanto, nenhum dos protocolos existentes reúne as características necessárias para fornecer uma eficiente utilização da largura de banda e, simultaneamente, para respeitar os requisitos impostos pelos SEDs. Nomeadamente, a capacidade para controlar e policiar tráfego de forma robusta, conjugada com suporte à reconfiguração e adaptação dinâmica, não comprometendo as garantias de tempo-real. Esta dissertação defende a tese de que, pelo melhoramento dos comutadores Ethernet para disponibilizarem mecanismos de reconfiguração e isolamento de tráfego, é possível suportar aplicações de tempo-real críticas, que são adaptáveis ao ambiente onde estão inseridas.Em particular, é mostrado que as técnicas de projecto, baseadas em componentes e apoiadas no escalonamento hierárquico de servidores de tráfego, podem ser integradas nos comutadores Ethernet para alcançar as propriedades desejadas. Como suporte, é fornecida, também, uma solução para instanciar uma hierarquia reconfigurável de servidores de tráfego dentro do comutador, bem como a análise adequada ao modelo de escalonamento. Esta última fornece um limite superior para o tempo de resposta que os pacotes podem sofrer dentro dos servidores de tráfego, com base unicamente no conhecimento de um dado servidor e na hierarquia actual, isto é, sem o conhecimento das especifidades do tráfego dentro dos outros servidores. Finalmente, no âmbito do projecto HaRTES foi construído um protótipo do comutador Ethernet, o qual é baseado no paradigma “Flexible Time-Triggered”, que permite uma junção flexível de uma fase síncrona para o tráfego controlado pelo comutador e uma fase assíncrona que implementa a estrutura hierárquica de servidores referidos anteriormente. Além disso, as várias experiências práticas realizadas permitiram validar as propriedades desejadas e, consequentemente, a tese que fundamenta esta dissertação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este relatório apresenta o estudo de duas linhas de montagem de câmaras de vigilância da empresa Bosch Security Systems, S.A. de Ovar. Numa primeira fase procedeu-se à elaboração das listas de tarefas e respectivas precedências, seguindo-se a medição de trabalho, com o intuito de se actualizarem os tempos padrão existentes. Procedeu-se à comparação dos tempos obtidos com os que se encontravam em vigor de modo a perceber as diferenças e motivos das mesmas. Numa segunda fase, realizaram-se balanceamentos para as duas linhas tendo como cenários a manutenção das duas linhas e a possibilidade da sua junção numa linha única. Analisaram-se todos os resultados e efectuou-se um levantamento do investimento necessário associado a cada um dos cenários. Realizou-se deste modo uma análise de viabilidade com vista ao apoio à decisão. Por fim, realizou-se o workshop Lean Line Design que teve como resultado a configuração física da linha final. Este projecto permitiu chegar a resultados aliciantes, com ganhos a vários níveis. Constituiu mais uma acção de melhoria da empresa, levando-a a rectificar lacunas existentes e ao cumprimento de procedimentos ergonómicos que já se encontravam definidos.