956 resultados para Large modeling projects
Resumo:
Innovation is considered crucial for enterprises survival and current economic environment demands the best ways of achieving it. However, the development of complex products and services require the utilization of diverse know-how and technology, which enterprises may not hold. An effective strategy for achieving them is to rely in open innovation. Still, open innovation projects may fail for many causes, e.g. due to the dynamics of collaboration between partners. To effectively benefit from open innovation, it is recommended the utilization of adequate risk models. For achieving such models, a preliminary conceptualization of open innovation and risk is necessary, which includes modeling experiments with existing risk models, such as the FMEA.
Resumo:
Mestre em Engenharia Civil – Ramo de Gestão das Construções
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
Trabalho de Projeto
Resumo:
Em Portugal existem muitos espaços comerciais e industriais em que as necessidades térmicas de arrefecimento são muito superiores às necessidades de aquecimento devido aos ganhos internos que advêm da existência de equipamentos e da iluminação dos edifícios, assim como, da presença das pessoas. A instalação de sistemas convencionais de ar condicionado para espaços comerciais e industriais de grande dimensão está geralmente associada ao transporte de grandes caudais de ar, e consequentemente, a elevados consumos de energia primária, e também, elevados custos de investimento, de manutenção e de operação. O arrefecedor evaporativo é uma solução de climatização com elevada eficiência energética, cujo princípio de funcionamento promove a redução do consumo de energia primária nos edifícios. A metodologia utilizada baseou-se na criação de uma ferramenta informática de simulação do funcionamento de um protótipo de um arrefecedor evaporativo. Foi efetuada a modelação matemática das variáveis dinâmicas envolvidas, dos processos de transferência de calor e de massa, assim como dos balanços de energia que ocorrem no arrefecedor evaporativo. A ferramenta informática desenvolvida permite o dimensionamento do protótipo do arrefecedor evaporativo, sendo determinadas as caraterísticas técnicas (potência térmica, caudal, eficiência energética, consumo energético e consumo e água) de acordo com o tipo de edifício e com as condições climatéricas do ar exterior. Foram selecionados três dimensionamentos de arrefecedores evaporativos, representativos de condições reais de uma gama baixa, média e elevada de caudais de ar. Os resultados obtidos nas simulações mostram que a potência de arrefecimento (5,6 kW, 16,0 kW e 32,8 kW) e o consumo de água (8 l/h, 23,9 l/h e 48,96 l/h) aumentam com o caudal de ar do arrefecedor, 5.000 m3/h, 15.000 m3/h e 30.000 m3/h, respetivamente. A eficácia de permuta destes arrefecedores evaporativos, foi de 69%, 66% e 67%, respetivamente. Verificou-se que a alteração de zona climática de V1 para V2 implicou um aumento de 39% na potência de arrefecimento e de 20% no consumo de água, e que, a alteração de zona climática de V2 para V3 implicou um aumento de 39% na potência de arrefecimento e de 39% no consumo de água. O arrefecedor evaporativo apresenta valores de consumo de energia elétrica entre 40% a 80% inferiores aos dos sistemas de arrefecimento convencionais, sendo este efeito mais intenso quando a zona climática de verão se torna mais severa.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
The intensive use of distributed generation based on renewable resources increases the complexity of power systems management, particularly the short-term scheduling. Demand response, storage units and electric and plug-in hybrid vehicles also pose new challenges to the short-term scheduling. However, these distributed energy resources can contribute significantly to turn the shortterm scheduling more efficient and effective improving the power system reliability. This paper proposes a short-term scheduling methodology based on two distinct time horizons: hour-ahead scheduling, and real-time scheduling considering the point of view of one aggregator agent. In each scheduling process, it is necessary to update the generation and consumption operation, and the storage and electric vehicles status. Besides the new operation condition, more accurate forecast values of wind generation and consumption are available, for the resulting of short-term and very short-term methods. In this paper, the aggregator has the main goal of maximizing his profits while, fulfilling the established contracts with the aggregated and external players.
Resumo:
International Journal of Engineering and Industrial Management, nº 1, p. 195-208
Resumo:
Dissertação apresentada à Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Doutor em Engenharia Civil
Resumo:
As caldeiras são equipamentos de extrema importância na maioria das indústrias portuguesas. É prática frequente os projectos de caldeiras possuírem apenas cálculos de materiais ou estruturais, nunca abordando as questões térmicas das mesmas. Neste contexto surge o presente trabalho que teve como principal objectivo estudar e modelar o comportamento térmico de uma caldeira alimentada a biomassa florestal. A caldeira em estudo é uma caldeira tubos de fumo com ante-fornalha, alimentada a biomassa e com pressão de funcionamento de 10 bar. A primeira parte do trabalho consistiu no levantamento de toda a informação relativa aos aspectos construtivos da caldeira e as condições de operação da mesma, através da consulta do seu projecto. O estudo do comportamento térmico da caldeira foi dividido em 2 partes: a modelação do comportamento térmico na ante-fornalha seguido da modelação do comportamento térmico do feixe tubular. Na ante fornalha admitiu-se que o calor seria transferido do gás para as paredes da mesma por convecção e por radiação, tendo-se utilizado o Método de Hottel para modelar a transferência de calor por radiação. No feixe tubular a transferência de calor por radiação foi desprezada, tendo-se considerado apenas transferência de calor por condução e convecção entre os gases quentes e a água. Os resultados obtidos mostram que, na ante-fornalha, o peso da potência transferida por radiação (96%) é muito superior à potência transferida por convecção (4%), tendo-se obtido os valores de 384,8 kW e de 16,0 kW para a potência térmica transferida por radiação e por convecção, respectivamente. O valor obtido para a temperatura dos gases na ante-fornalha foi de 1085 K. No feixe tubular a potência térmica transferida por convecção foi de 2559 kW tendo-se obtido o valor de 240ºC para a temperatura de exaustão dos gases pela chaminé. As perdas para o exterior foram estimadas em 1,5 %. O balanço global de energia à caldeira indicou um peso para a potência transferida por convecção de 86,3% e para a potência transferida por radiação de 13,6%. O rendimento da caldeira foi calculado pelo método das perdas tendo-se obtido o valor de 39%.
Resumo:
As aplicações de Gestão ou Faturação são uma presença indispensável hoje em dia. Tendo o seu início nas aplicações “MS-DOS” em modo de texto, estas aplicações acompanharam a evolução dos sistemas operativos adotando um ambiente gráfico de forma natural. Se há poucos anos apenas as empresas com volumes de negócio significativo possuíam software de faturação, este foi sendo adotado por cada vez mais empresas e pequenos negócios. As alterações legislativas introduzidas desde 2011 conduziram a uma adoção generalizada por parte de pequenas e microempresas. O mercado de aplicações de gestão está saturado pelos grandes produtores de software nacionais: Primavera, Sage, etc. Estas aplicações, tendo sido construídas para PMEs (Pequenas e Médias Empresas) e mesmo grandes empresas, são excessivamente complexas e onerosas para muito pequenas e microempresas. O Modelo de negócio destes produtores de software é primordialmente a venda de Licenças e contratos de Manutenção, nalguns casos através de redes de Agentes. Este projeto teve como objetivo o desenvolvimento de uma Aplicação de Faturação, de baixo custo, simples e cross-platform para ser comercializada em regime de aluguer em Pequenas e Micro Empresas.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Civil-Perfil de Construção
Resumo:
O planeamento de redes de distribuição tem como objetivo assegurar a existência de capacidade nas redes para a fornecimento de energia elétrica com bons níveis de qualidade de serviço tendo em conta os fatores económicos associados. No âmbito do trabalho apresentado na presente dissertação, foi elaborado um modelo de planeamento que determina a configuração de rede resultante da minimização de custos associados a: 1) perdas por efeito de joule; 2) investimento em novos componentes; 3) energia não entregue. A incerteza associada ao valor do consumo de cada carga é modelada através de lógica difusa. O problema de otimização definido é resolvido pelo método de decomposição de benders que contempla dois trânsitos de potências ótimos (modelo DC e modelo AC) no problema mestre e escravo respectivamente para validação de restrições. Foram também definidos critérios de paragem do método de decomposição de benders. O modelo proposto classifica-se como programação não linear inteira mista e foi implementado na ferramenta de otimização General Algebraic Modeling System (GAMS). O modelo desenvolvido tem em conta todos componentes das redes para a otimização do planeamento, conforme podemos analisar nos casos de estudo implementados. Cada caso de estudo é definido pela variação da importância que cada uma das variáveis do problema toma, tendo em vista cobrir de alguma todos os cenários de operação expetáveis. Através destes casos de estudo verifica-se as várias configurações que a rede pode tomar, tendo em conta as importâncias atribuídas a cada uma das variáveis, bem como os respetivos custos associados a cada solução. Este trabalho oferece um considerável contributo no âmbito do planeamento de redes de distribuição, pois comporta diferentes variáveis para a execução do mesmo. É também um modelo bastante robusto não perdendo o ‘norte’ no encontro de solução para redes de grande dimensão, com maior número de componentes.
Resumo:
The CDIO Initiative is an open innovative educational framework for engineering graduation degrees set in the context of Conceiving – Designing – Implementing – Operating real-world systems and products, which is embraced by a network of worldwide universities, the CDIO collaborators. A CDIO compliant engineering degree programme typically includes a capstone module on the final semester. Its purpose is to expose students to problems of a greater dimension and complexity than those faced throughout the degree programme as well as to put them in contact with the so-called real world, in opposition to the academic world. However, even in the CDIO context, there are barriers that separate engineering capstone students from the real world context of an engineering professional: (i) limited interaction with experts from diverse scientific areas; (ii) reduced cultural and scientific diversity within the teams; and (iii) lack of a project supportive framework to foster the complementary technical and non-technical skills required in an engineering professional. To address these shortcomings, we propose the adoption of the European Project Semester (EPS) framework, a one semester student centred international capstone programme offered by a group of European engineering schools (the EPS Providers) as part of their student exchange programme portfolio. The EPS package is organised around a central module – the EPS project – and a set of complementary supportive modules. Project proposals refer to open multidisciplinary real world problems and supervision becomes coaching. The students are organised in teams, grouping individuals from diverse academic backgrounds and nationalities, and each team is fully responsible for conducting its project. EPS complies with the CDIO directives on Design-Implement experiences and provides an integrated framework for undertaking capstone projects, which is focussed on multicultural and multidisciplinary teamwork, problem-solving, communication, creativity, leadership, entrepreneurship, ethical reasoning and global contextual analysis. As a result, we recommend the adoption of the EPS within CDIO capstone modules for the benefit of engineering students.