947 resultados para Factory of software


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Understanding the product`s `end-of-life` is important to reduce the environmental impact of the products` final disposal. When the initial stages of product development consider end-of-life aspects, which can be established by ecodesign (a proactive approach of environmental management that aims to reduce the total environmental impact of products), it becomes easier to close the loop of materials. The `end-of-life` ecodesign methods generally include more than one `end-of-life` strategy. Since product complexity varies substantially, some components, systems or sub-systems are easier to be recycled, reused or remanufactured than others. Remanufacture is an effective way to maintain products in a closed-loop, reducing both environmental impacts and costs of the manufacturing processes. This paper presents some ecodesign methods focused on the integration of different `end-of-life` strategies, with special attention to remanufacturing, given its increasing importance in the international scenario to reduce the life cycle impacts of products. (C) 2009 Elsevier Ltd. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A large and growing amount of software systems rely on non-trivial coordination logic for making use of third party services or components. Therefore, it is of outmost importance to understand and capture rigorously this continuously growing layer of coordination as this will make easier not only the veri cation of such systems with respect to their original speci cations, but also maintenance, further development, testing, deployment and integration. This paper introduces a method based on several program analysis techniques (namely, dependence graphs, program slicing, and graph pattern analysis) to extract coordination logic from legacy systems source code. This process is driven by a series of pre-de ned coordination patterns and captured by a special purpose graph structure from which coordination speci cations can be generated in a number of di erent formalisms

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The integration and composition of software systems requires a good architectural design phase to speed up communications between (remote) components. However, during implementation phase, the code to coordinate such components often ends up mixed in the main business code. This leads to maintenance problems, raising the need for, on the one hand, separating the coordination code from the business code, and on the other hand, providing mechanisms for analysis and comprehension of the architectural decisions once made. In this context our aim is at developing a domain-specific language, CoordL, to describe typical coordination patterns. From our point of view, coordination patterns are abstractions, in a graph form, over the composition of coordination statements from the system code. These patterns would allow us to identify, by means of pattern-based graph search strategies, the code responsible for the coordination of the several components in a system. The recovering and separation of the architectural decisions for a better comprehension of the software is the main purpose of this pattern language

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Object-oriented programming languages presently are the dominant paradigm of application development (e. g., Java,. NET). Lately, increasingly more Java applications have long (or very long) execution times and manipulate large amounts of data/information, gaining relevance in fields related with e-Science (with Grid and Cloud computing). Significant examples include Chemistry, Computational Biology and Bio-informatics, with many available Java-based APIs (e. g., Neobio). Often, when the execution of such an application is terminated abruptly because of a failure (regardless of the cause being a hardware of software fault, lack of available resources, etc.), all of its work already performed is simply lost, and when the application is later re-initiated, it has to restart all its work from scratch, wasting resources and time, while also being prone to another failure and may delay its completion with no deadline guarantees. Our proposed solution to address these issues is through incorporating mechanisms for checkpointing and migration in a JVM. These make applications more robust and flexible by being able to move to other nodes, without any intervention from the programmer. This article provides a solution to Java applications with long execution times, by extending a JVM (Jikes research virtual machine) with such mechanisms. Copyright (C) 2011 John Wiley & Sons, Ltd.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A existência de estações de tratamentos de águas residuais (ETAR) é, nos dias de hoje, fundamental na medida em que permite, reduzir a poluição ambiental associada às águas e, também, a reutilização da água tratada para diversos fins. A constante necessidade de cumprir os limites de descargas nos meios recetores conduziu a um melhoramento nas técnicas e processos de tratamento de efluentes, nomeadamente, nos processos biológicos. O processo por lamas ativadas é um processo amplamente utilizado para a remoção de poluentes orgânicos presentes nas águas residuais, pelo que um estudo mais intensivo sobre estes tratamentos resultou na publicação de uma série de conceitos e pressupostos, através de modelos numéricos. A modelação numérica de processos de tratamento de águas residuais e a utilização de ferramentas de simulação numérica têm sido largamente utilizadas, a nível mundial, por exemplo em investigação, desenvolvimento de processos, atividade de consultoria e igualmente por entidades reguladoras, na medida em que os auxiliam no planeamento, dimensionamento e análise do comportamento de infraestruturas de tratamento. No presente trabalho, recorreu-se ao software de simulação GPS-X (versão 6.0) para implementar o esquema de tratamento da ETAR de Beirolas. O objetivo deste trabalho é verificar a aplicabilidade de modelos numéricos na simulação de unidades de tratamento de efluentes e avaliar a resposta dos diferentes modelos, assim como a influência na alteração de características das águas afluentes no comportamento dos modelos. Os resultados obtidos permitiram concluir que os modelos numéricos podem ser utilizados para prever a resposta dos sistemas biológicos e as suas perturbações. Conclui-se ainda que o comportamento, dos modelos estudados (ASM1, ASM2d, ASM3 e mantis), é semelhante, contudo deve-se referir que devido à complexidade do modelo e a falta de informação experimental sobre as características do efluente, não permitiram efetuar uma completa caracterização e calibração do caso de estudo, e toda a informação disponível sobre as características físico-químicas da água foram baseadas em estimativas de concentrações de carências de oxigénio e sólidos suspensos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho Final de Mestrado elaborado no Laboratório Nacional de Engenharia Civil (LNEC) para a obtenção do grau de Mestre em Engenharia Civil pelo Instituto Superior de Engenharia de Lisboa no âmbito do protocolo de cooperação entre o ISEL e o LNEC

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil no Ramo de Edificações

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ao longo dos tempos foi possível constatar que uma grande parte do tempo dos professores é gasta na componente de avaliação. Por esse facto, há já algumas décadas que a correcção automática de texto livre é alvo de investigação. Sendo a correcção de exercícios efectuada pelo computador permite que o professor dedique o seu tempo em tarefas que melhorem a aprendizagem dos alunos. Para além disso, cada vez mais as novas tecnologias permitem o uso de ferramentas com bastante utilidade no ensino, pois para além de facilitarem a exposição do conhecimento também permitem uma maior retenção da informação. Logo, associar ferramentas de gestão de sala de aula à correcção automática de respostas de texto livre é um desafio bastante interessante. O objectivo desta dissertação foi a realização de um estudo relativamente à área de avaliação assistida por computador em que este trabalho se insere. Inicialmente, foram analisados alguns correctores ortográficos para seleccionar aquele que seria integrado no módulo proposto. De seguida, foram estudadas as técnicas mais relevantes e as ferramentas que mais se enquadram no âmbito deste trabalho. Neste contexto, a ideia foi partir da existência de uma ferramenta de gestão de sala de aula e desenvolver um módulo para a correcção de exercícios. A aplicação UNI_NET-Classroom, que foi a ferramenta para a qual o módulo foi desenvolvido, já continha um componente de gestão de exercícios que apenas efectuava a correcção para as respostas de escolha múltipla. Com este trabalho pretendeu-se acrescentar mais uma funcionalidade a esse componente, cujo intuito é dar apoio ao professor através da correcção de exercícios e sugestão da cotação a atribuir. Por último, foram realizadas várias experiências sobre o módulo desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. A conclusão mais importante foi que as ferramentas de correcção automática são uma mais-valia para os professores e escolas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

actividade de turismo de habitação tem crescido de forma sustentada ao longo dos últimos anos em Portugal e o recurso à internet como canal de comercialização deste serviço tem substituído gradualmente os restantes canais mais tradicionais. No entanto, esta generalização do recurso a websites, nesta e noutras áreas da actividade económica, não tem sido sempre sinónimo de qualidade, justificando assim a procura de sistemas de avaliação deste tipo de produto de software, que possam ser aplicados sistemática e eficazmente. Nesse sentido, foi desenvolvido este trabalho, no propósito de conseguir um modelo de avaliação de websites, específico para o turismo de habitação, na convicção de que para áreas específicas se exigem abordagens específicas. A pesquisa por modelos orientados para esta actividade não produziu qualquer resultado, ao contrário de outras áreas onde já existem modelos adequados, como sejam a área académica e outras. Daí a necessidade de conjugar ideias e conceitos mais genéricos, de fontes diversas, com elementos específicos de turismo de habitação, no intuito de os combinar e adequar aos objectivos deste trabalho. Assim, a partir de elementos da Norma ISO 9126; de conceitos de usabilidade, funcionalidade, credibilidade, e outros; da opção por uma abordagem de desempenho empresarial; de modelos já existentes, embora direccionados para outras áreas; e de um modelo exploratório de carácter empírico entretanto desenvolvido, foi concebido e implementado um modelo que se caracteriza no essencial, por ser estruturado em três níveis, contemplar um conjunto de trinta e oito atributos em avaliação, com maior incidência naqueles relacionados com aspectos que se considera terem maior influência no desempenho da actividade económica subjacente, e que tem uma ponderação variável do seu impacto no resultado final. No intuito de dar flexibilidade ao modelo e de contrariar a carga subjectiva resultante do processo de ponderação do impacto de cada atributo avaliado, foram implementados no modelo três cenários alternativos com ponderações distintas, cada um valorizando determinado tipo de atributos e desvalorizando outros. Naturalmente que, aquando da implementação do modelo exploratório foram já retiradas algumas conclusões sobre o panorama geral, todavia o modelo definitivo veio dar-lhes maior consistência e pormenor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação de Mestrado, Património, Museologia e Desenvolvimento, 25 de Fevereiro de 2016, Universidade dos Açores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica – Sistemas Eléctricos de Energia

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação de Natureza Científica elabora da no âmbito do protocolo de cooperação entre o ISEL e o LNEC para obtenção do grau de Mestre em Engenharia Civil