944 resultados para selection methods


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The choice of an information systems is a critical factor of success in an organization's performance, since, by involving multiple decision-makers, with often conflicting objectives, several alternatives with aggressive marketing, makes it particularly complex by the scope of a consensus. The main objective of this work is to make the analysis and selection of a information system to support the school management, pedagogical and administrative components, using a multicriteria decision aid system – MMASSITI – Multicriteria Method- ology to Support the Selection of Information Systems/Information Technologies – integrates a multicriteria model that seeks to provide a systematic approach in the process of choice of Information Systems, able to produce sustained recommendations concerning the decision scope. Its application to a case study has identi- fied the relevant factors in the selection process of school educational and management information system and get a solution that allows the decision maker’ to compare the quality of the various alternatives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO Os trabalhos de investigação, conducentes à elaboração do presente estudo morfofuncional, subordinado ao tema da "VASCULARIZAÇÃO ARTERIAL DO ÚTERO",fundamenta-se em conceitos da anatomia descritiva clássica, complementados por técnicas de estudo mais modernas, permitindo-nos observações originais. O principal objectivo é de definir um padrão descritivo da vascularização uterina e de estabelecer uma correlação anatomo-fisiológica e anatomo-clínica na descrição da angiomorfologia uterina, actualizando as descrições clássicas da artéria com dados de observação originais, segundo as técnicas de estudo angiomorfológicas correntemente empregues no Departamento de Anatomia da Faculdade de Ciências Médicas da Universidade Nova de Lisboa. Correlacionam-se as observações com os mais recentes dados publicados, no âmbito da imuno-histoquímica e da moderna bioquímica endocrinológica, uma vez que os conceitos modernos de fisiologia uterina e ginecológica praticamente dominam a vasta literatura científica mundial. Como objectivos particulares, ou linhas orientadoras da tese, escolhemos: - A definição de parâmetros descritivos do padrão genérico da vascularização uterina, actualizando a nomenclatura descritiva de acordo com a moderna Nomina Anatomica mundialmente debatida, desde o XIV Congresso Internacional da Federação Internacional das Associações de Anatomistas, sob a presidência do Prof. Doutor J.A. Esperança Pina (1994) e publicada em 1999-2001. - A comparação do caso humano com o do animal de experiência, por observação meticulosa do maior número de casos possíveis, realizando um estudo comparativo que nos permita extrapolar dados de experimentação animal para o caso humano; - O estabelecimento de uma correlação anatomo-fisiológica, por análise do comportamento da vascularização uterina, ao longo da vida, desde o nascimento até à menopausa, e perante as influências hormonais a que se encontra exposta. A tese constrói-se em torno de três núcleos fundamentais: 1. Um capítulo introdutório, de contextualização teórica, por enquadramento histórico dos estudos dos órgãos genitais femininos e da evolução das técnicas de diagnóstico e terapêutica do útero, focando as primeiras referências à técnica da histerotomia (Cesariana) (com a lenda persa do nascimento do herói Rostam, ou do nascimento do deus Asclepius), as primeiras representações da vascularização uterina (por LEONARDO e iii VESÁLIO), ou as primeiras descrições anatómicas do útero, da autoria de Portugueses (RODRIGO DE CASTRO, 1516 e AMATO LUSITANO, 1551). Prossegue a contextualização teórica com breve referência à recente evolução das técnicas de diagnóstico e terapêutica dos fibromiomas uterinos, mencionando de modo particular a evolução das técnicas de embolização arterial uterina, por nos parecer corresponder a um campo de aplicação imediata dos estudos da vascularização do útero. Termina este capítulo com breve referência aos trabalhos do Prof. Doutor J. MARTINS PISCO que tem actualmente, no nosso País uma das mais extensas listas de trabalhos efectuados com sucesso a nível mundial, no campo da embolização arterial de fibromiomas uterinos. 2. O segundo núcleo fundamental, intitulado "Angiomorfologia uterina" corresponde a extensa revisão bibliográfica dos estudos descritivos da vascularização uterina, desde logo ilustrando a resenha teórica com algumas imagens fotográficas de úteros humanos, seleccionadas da nossa colecção. A descrição da vascularização uterina, fundamentada em 1500 citações bibliográficas, organiza-se, de acordo com o paralelismo entre a estratificação histológica e angiológica do órgão, e a hierarquia funcional, regulada pelas cíclicas variações hormonais. Descreve-se a camada serosa e correspondente vascularização; a camada muscular e vascularização do miométrio; e, por fim, a camada mucosa e os vasos endometriais. Verifica-se, perante os dados colhidos da literatura mundial, o interesse do aprofundamento dos estudos morfológicos da microvascularização endometrial e da adaptação das descrições aos resultados dos modernos estudos funcionais obtidos por técnicas da imuno-histoquímica. 3. Fundamentados nos dados colhidos das revisões bibliográficas, elaborámos um projecto de investigação original, visando o estabelecimento da relação morfo-funcional resultante do aprofundamento dos estudos descritivos da angiomorfologia e da microvascularização do útero. O capítulo de trabalho experimental organiza-se em três principais passos: – No capítulo de Materiais e métodos, procede-se à escolha, por um lado do animal de experiência mais adequado para os estudos da vascularização uterina (por estudo comparativo ao longo da escala animal) e, por outro lado, à escolha de três das técnicas disponíveis no Laboratório de Anatomia Experimental e aplicáveis à investigação angiomorfológica do útero; iv - No capítulo de Resultados, procedemos à exposição das nossas observações de 25 úteros humanos e de 154 úteros de animais de experiência, segundo as três técnicas seleccionadas (dissecção, Injecção-corrosão-fluorescência, Injecção-diafanização e injecção-corrosão paraobservação de moldes vasculares em microscopia electrónica de varrimento), organizando aselecção da vasta iconografia coleccionada em três novos subcapítulos: o útero humano, oútero do animal de experiência e um estudo comparativo, essencial para validar osresultados do trabalho experimental. - O capítulo de trabalho experimental, inteiramente efectuado por estudos na artéria uterina do rato Wistar, abrange primeiramente a tentativa de definição macroscópica de territórios de vascularização, seguido das observações microscópicas conducentes à definição dos parâmetros angiomorfológicos característicos de cada uma das etapas da grande variabilidade a que se sujeita a vascularização uterina, ao longo da vida, incluindo a infância, a gravidez, a paridade e o envelhecimento, e consoante as fases do ciclo hormonal ovárico. Aperfeiçoámos essa tarefa com a elaboração de três experiências distintas, para análise dos efeitos microvasculares uterinos da administração exógena de preparados comerciais hormonais, por observação em microscopia electrónica de varrimento. De acordo com as leituras da literatura clássica sobre a metodologia do trabalho científico, completamos os trabalhos por um capítulo de síntese e critica dos resultados, sequencialmente organizado consoante cada um dos passos experimentais atrás referidos. SUMMARY The aim of the present thesis is the description of the uterine arterial network, complementing the classical concepts of descriptive Anatomy with modern techniques of anatomical research, thus achieving original final results and observations. One of the main objectives of the research is to establish physiological and clinical correlations in the description of the uterine angiomorphology, with the techniques currently available for angiomorphological research in the Department of Anatomy of Faculty of Medical Sciences of the New University of Lisbon. As guidelines to our research, we established the following specific objectives: - defining the descriptive parameters of the standard pattern of the uterine vasculature, according to the modern Nomina Anatomica, as underlined in the latest Federative Congresses of the International Federation of the Associations of Anatomists, one of which took place in Lisbon, in 1994, under the presidency of Professor J.A. Esperança Pina, the supervisor of the present works; - comparing the human uterus with the uterus of the experimental animal, to extrapolate the experimental observations in animals to the particular case of the human uterus; - establishing a correlation between the physiology and the anatomical observations of the uterine vasculature throughout life, from childhood to menopause and in relation to the hormonal influences to which the uterus is exposed. The thesis is built around three main chapters: 1) The introduction chapter defines the historical framework of the studies of the female genital anatomy and the historical evolution of the clinical management of common uterine diseases, focusing on the first historical references to the Caesarean section (such as the Persian legend of the birth of the hero ROSTAM, or that of the birth of ASCLEPIUS, the Greek god of Medicine); the first depictions of the uterine vasculature (by LEONARDO and VESALIUS) or the first anatomical descriptions of the uterus, by Portuguese authors (RODRIGO DE CASTRO, 1517, or AMATUS LUSITANUS, 1551). The theoretical context proceeds, with reference to the recent evolution of the clinical and surgical management of uterine fibroids, and a particular mention to the modern techniques of Uterine Fibroid Embolisation, which corresponds to one of the fields of interest of the anatomic studies of uterine arterial vascularization. 2) The second chapter, devoted to the anatomical description of the Uterine Angiomorphology, is based on an extensive review of the available Medical literature,illustrated by a selection of our own research observations of the human uterine vasculature. The description is organized in view of the parallelism between histological and angiological stratification and the functional hierarchy, under the control of the cyclic hormonal variations. Each layer of the uterine wall is depicted with photographs of the human uterus and descriptions of its specific vascular network: the serosa, the muscular Myometrium, and the mucosa, or endometrium. This classical description, based on extensive quotations of the international scientific literature, enhances our interest for the research of a more detailed knowledge of the endometrial microvascular network, accordingly to the modern physiologic results obtained through immunohistochemical studies. 3) The results of our experimental research, aiming to establish the intimate relationship between the anatomical and functional studies of uterine vasculature, are organized in three main steps: - The chapter of Materials and Methods debates the choice of the experimental animal, based on a short review of the comparative anatomy of the uterus, and uterine physiology, throughout the animal scale. The selection of three fundamental techniques of anatomic research is made from the current variety available in the Laboratory of Experimental Anatomy of the Lisbon School of Medical Sciences. - The Results of our personal research and observations of 25 human and 154 animal uteri,after dissection, and the techniques of arterial injection for the preparation of fluorescent corrosion casts, of vascular injection and clearing, and of arterial injection and preparation of corrosion casts for Scanning Electron Microscopy are rganized in terms of human or animal macroscopic anatomy and microvascular network, followed by a summary of the comparative anatomy of human and rat uteri, which is essential to validate the resultant experimental observations of the rat endometrial microvasculature. - The experimental research is entirely devoted to the uterine artery of the Wistar rat. The first step consists of the attempt to define macroscopic territories of vascularization, followed by microscopic observations for the definition of the angiomorphological pattern that is characteristic of each stage of the extreme variations to which the uterus is subject throughout life, from childhood to sexual maturity, throughout the hormonal cycle, in pregnancy, according to parity, and through ageing. We complete these observations with the experimental exposure of the Wistar rat uterus to pharmacologic preparations of hormones, currently available in clinical practice, and observations of the vascular uterine changes in Scanning Electron Microscopy. The outcome results of our anatomical observations are followed by a critical synthesis of the results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of this work is to report on the development of a multi-criteria methodology to support the assessment and selection of an Information System (IS) framework in a business context. The objective is to select a technological partner that provides the engine to be the basis for the development of a customized application for shrinkage reduction on the supply chains management. Furthermore, the proposed methodology di ers from most of the ones previously proposed in the sense that 1) it provides the decision makers with a set of pre-defined criteria along with their description and suggestions on how to measure them and 2)it uses a continuous scale with two reference levels and thus no normalization of the valuations is required. The methodology here proposed is has been designed to be easy to understand and use, without a specific support of a decision making analyst.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como objetivos: (1) conhecer as práticas desenvolvidas numa organização do Ensino Superior Público Português; (2) conhecer a tipologia das práticas de GRH de cariz tradicional e de cariz estratégico; (3) perceber em que medida as práticas de GRH estão relacionadas com a área de qualificação dos responsáveis do departamento de RH; (4) averiguar o grau de satisfação que os trabalhadores sentem com as Práticas de Gestão de Recursos Humanos desenvolvidas e a sua relação com a área de qualificação dos responsáveis do departamento de RH. Foi utilizada uma metodologia mista, que possibilita ampliar a obtenção de resultados em abordagens investigativas, proporcionando ganhos relevantes para a pesquisa. É realizado um primeiro estudo exploratório, que utiliza uma metodologia mista quantitativa e qualitativa, com recurso a uma entrevista semiestruturada e inquérito realizados aos responsáveis de RH, e que tem como objetivos identificar e caracterizar as Práticas de GRH vigentes na Organização e, consequentemente, averiguar se se aproximam das designadas na literatura, assim como averiguar o grau de intervenção do DRH no desenvolvimento das PGRH e caraterizar o perfil do responsável de RH na Organização, averiguando se a área de formação de RH influencia as Práticas de GRH desenvolvidas. No segundo estudo, recorremos a uma metodologia quantitativa com recurso ao inquérito por questionário, aplicado aos trabalhadores que exercem funções a tempo integral, para averiguar o grau de satisfação dos trabalhadores em relação às Práticas de Gestão de Recursos Humanos. Na compilação dos dois estudos foi nosso objetivo obter respostas às questões que orientaram a nossa investigação. Na parte final da dissertação são discutidos os principais resultados obtidos e apresentadas as conclusões do estudo aqui levado a cabo. Os resultados sugerem que: 1) as PGRH existentes são essencialmente de cariz tradicional, em especial a gestão administrativa; 2) as PGRH predominantes são: o Planeamento de Recursos Humanos, a Análise e Descrição de Funções, o Recrutamento e Seleção, a Formação e Desenvolvimento, a Gestão Administrativa, a Comunicação e a Partilha de Informação, Ética e Deontologia e o Estatuto Disciplinar; 3) existe pouco recurso ao outsourcing para as PGRH; 4) o grau de intervenção DRH baseia-se em atividades de cariz mais administrativo; 5) as práticas tradicionais de RH são aquelas que requerem mais tempo ao DRH; 6) não existe relação entre o tipo de PGRH e a área de qualificação do responsável do DRH; 7) as PGRH são realizadas seguindo essencialmente as normas legais e regras rígidas da GRH na AP; 8) algumas PGRH não são entendidas em contexto da AP, como importantes pelos gestores, embora já sejam desenvolvidos alguns procedimentos dessas práticas; 9) a PGRH da formação e desenvolvimento não é corretamente desenvolvida e não dá cumprimento ao estipulado na lei; 10) a gestão de carreiras e o sistema de compensação e recompensas são entendidas como inexistentes, porque não existem promoções e progressões desde 2005; 11) a avaliação do desempenho é um sistema burocrático e ritualista com fins de promoção e compensação, sem efeitos práticos no momento atual, e que causa insatisfação e o sentimento de injustiça; 12) existem problemas de comunicação quanto a partilha e uniformização de procedimentos entre UO; 13) a satisfação dos trabalhadores é maior com as PGRH de tipo tradicional, nomeadamente na gestão administrativa, recrutamento e seleção, análise e descrição de funções, acolhimento, integração e socialização 14) a satisfação é menor na gestão de carreiras, no sistema de compensação e recompensas e na avaliação do desempenho; 15) quanto a relação entre o grau de satisfação e as características sócio demográficas e profissionais dos inquiridos, os casos com significância mostram que os trabalhadores com 10 ou mais anos de antiguidade tendem a sentir mais satisfação com as práticas em GRH; 16) existe mais satisfação dos trabalhadores das UO onde o responsável de DRH possui formação na área de RH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada para obtenção do Grau de Doutor em Bioquímica pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia.A presente dissertação foi preparada no âmbito do convénio bilateral existente entre a Universidade Nova de Lisboa e a Universidade de Vigo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Long-term international assignments’ increase requires more attention being paid for the preparation of these foreign assignments, especially on the recruitment and selection process of expatriates. This article explores how the recruitment and selection process of expatriates is developed in Portuguese companies, examining the main criteria on recruitment and selection of expatriates’ decision to send international assignments. The paper is based on qualitative case studies of companies located in Portugal. The data were collected through semi-structured interviews of 42 expatriates and 18 organisational representatives as well from nine Portuguese companies. The findings show that the most important criteria are: (1) trust from managers, (2) years in service, (3) previous technical and language competences, (4) organisational knowledge and, (5) availability. Based on the findings, the article discusses in detail the main theoretical and managerial implications. Suggestions for further research are also presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Demand response has gained increasing importance in the context of competitive electricity markets and smart grid environments. In addition to the importance that has been given to the development of business models for integrating demand response, several methods have been developed to evaluate the consumers’ performance after the participation in a demand response event. The present paper uses those performance evaluation methods, namely customer baseline load calculation methods, to determine the expected consumption in each period of the consumer historic data. In the cases in which there is a certain difference between the actual consumption and the estimated consumption, the consumer is identified as a potential cause of non-technical losses. A case study demonstrates the application of the proposed method to real consumption data.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Demand response has gain increasing importance in the context of competitive electricity markets environment. The use of demand resources is also advantageous in the context of smart grid operation. In addition to the need of new business models for integrating demand response, adequate methods are necessary for an accurate determination of the consumers’ performance evaluation after the participation in a demand response event. The present paper makes a comparison between some of the existing baseline methods related to the consumers’ performance evaluation, comparing the results obtained with these methods and also with a method proposed by the authors of the paper. A case study demonstrates the application of the referred methods to real consumption data belonging to a consumer connected to a distribution network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electric power networks, namely distribution networks, have been suffering several changes during the last years due to changes in the power systems operation, towards the implementation of smart grids. Several approaches to the operation of the resources have been introduced, as the case of demand response, making use of the new capabilities of the smart grids. In the initial levels of the smart grids implementation reduced amounts of data are generated, namely consumption data. The methodology proposed in the present paper makes use of demand response consumers’ performance evaluation methods to determine the expected consumption for a given consumer. Then, potential commercial losses are identified using monthly historic consumption data. Real consumption data is used in the case study to demonstrate the application of the proposed method.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A monitorização ambiental é essencial para a tomada de decisões tanto na ciência como na indústria. Em particular, uma vez que a água é essencial à vida e a superfície da Terra é composta principalmente por água, a monitorização do clima e dos parâmetros relacionados com a água em ecossistemas sensíveis, tais como oceanos, lagoas, rios e lagos, é de extrema importância. Um dos métodos mais comuns para monitorar a água é implantar bóias. O presente trabalho está integrado num projeto mais amplo, com o objetivo de projectar e desenvolver uma bóia autónoma para a investigação científica com dois modos de funcionamento: (i) monitorização ambiental ; e (ii) baliza ativa de regata. Assim, a bóia tem duas aplicações principais: a coleta e armazenamento de dados e a assistência a regatas de veleiros autónomos. O projeto arrancou há dois anos com um grupo de quatro estudantes internacionais. Eles projetaram e construíram a estrutura física, compraram e montaram o sistema de ancoragem da bóia e escolherem a maioria dos componentes electrónicos para o sistema geral de controlo e medição. Este ano, durante o primeiro semestre, dois estudantes belgas - Jeroen Vervenne e Hendrick Verschelde – trabalharam nos subsistemas de recolha e armazenamento de dados (unidade de controlo escrava) e de telemetria e configuração (unidade de controlo mestre) assim como definiram o protocolo de comunicação da aplicação. O trabalho desta tese continua o desenvolvimento do subsistema de telemetria e configuração. Este subsistema _e responsável pela configuração do modo de funcionamento e dos sensores assim como pela comunicação com a estacão de base (controlo ambiental), barcos (baliza ativa de regata) e com o subsistema de recolha e armazenamento de dados. O desenvolvimento do subsistema de recolha e armazenamento de dados, que coleta e armazena num cartão SD os dados dos sensores selecionados, prossegue com outro estudante belga - Mathias van Flieberge. O objetivo desta tese é, por um lado, implementar o subsistema de telemetria e de configuração na unidade de controle mestre e, por outro lado, refinar e implementar, conjuntamente com Mathias van Flieberge, o protocolo de nível de aplicação projetado. Em particular, a unidade de controlo mestre deve processar e atribuir prioridades às mensagens recebidas da estacão base, solicitar dados à unidade de controlo escrava e difundir mensagens com informação de posição e condições de vento e água no modo de regata. Enquanto que a comunicação entre a unidade de controlo mestre e a estacão base e a unidade de controlo mestre e os barcos é sem fios, a unidade de controlo mestre e a unidade de controlo escrava comunicam através de uma ligação série. A bóia tem atualmente duas limitações: (i) a carga máxima é de 40 kg; e (ii) apenas pode ser utilizada em rios ou próximo da costa dada à limitação de distância imposta pela técnica de comunicação sem fios escolhida.