12 resultados para Integrated Land and Water Information System (ILWIS)
em Instituto Politécnico do Porto, Portugal
Resumo:
The choice of an information systems is a critical factor of success in an organization's performance, since, by involving multiple decision-makers, with often conflicting objectives, several alternatives with aggressive marketing, makes it particularly complex by the scope of a consensus. The main objective of this work is to make the analysis and selection of a information system to support the school management, pedagogical and administrative components, using a multicriteria decision aid system – MMASSITI – Multicriteria Method- ology to Support the Selection of Information Systems/Information Technologies – integrates a multicriteria model that seeks to provide a systematic approach in the process of choice of Information Systems, able to produce sustained recommendations concerning the decision scope. Its application to a case study has identi- fied the relevant factors in the selection process of school educational and management information system and get a solution that allows the decision maker’ to compare the quality of the various alternatives.
Resumo:
Admission controllers are used to prevent overload in systems with dynamically arriving tasks. Typically, these admission controllers are based on suÆcient (but not necessary) capacity bounds in order to maintain a low computational complexity. In this paper we present how exact admission-control for aperiodic tasks can be eÆciently obtained. Our rst result is an admission controller for purely aperiodic task sets where the test has the same runtime complexity as utilization-based tests. Our second result is an extension of the previous controller for a baseload of periodic tasks. The runtime complexity of this test is lower than for any known exact admission-controller. In addition to presenting our main algorithm and evaluating its performance, we also discuss some general issues concerning admission controllers and their implementation.
Resumo:
Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.
Resumo:
The main objective of this work is to report on the development of a multi-criteria methodology to support the assessment and selection of an Information System (IS) framework in a business context. The objective is to select a technological partner that provides the engine to be the basis for the development of a customized application for shrinkage reduction on the supply chains management. Furthermore, the proposed methodology di ers from most of the ones previously proposed in the sense that 1) it provides the decision makers with a set of pre-defined criteria along with their description and suggestions on how to measure them and 2)it uses a continuous scale with two reference levels and thus no normalization of the valuations is required. The methodology here proposed is has been designed to be easy to understand and use, without a specific support of a decision making analyst.
Resumo:
Proceedings of the 8th International Symposium on Project Approaches in Engineering Education (PAEE), Guimarães, 2016
Resumo:
We describe a novel approach to explore DNA nucleotide sequence data, aiming to produce high-level categorical and structural information about the underlying chromosomes, genomes and species. The article starts by analyzing chromosomal data through histograms using fixed length DNA sequences. After creating the DNA-related histograms, a correlation between pairs of histograms is computed, producing a global correlation matrix. These data are then used as input to several data processing methods for information extraction and tabular/graphical output generation. A set of 18 species is processed and the extensive results reveal that the proposed method is able to generate significant and diversified outputs, in good accordance with current scientific knowledge in domains such as genomics and phylogenetics.
Resumo:
Proteins are biochemical entities consisting of one or more blocks typically folded in a 3D pattern. Each block (a polypeptide) is a single linear sequence of amino acids that are biochemically bonded together. The amino acid sequence in a protein is defined by the sequence of a gene or several genes encoded in the DNA-based genetic code. This genetic code typically uses twenty amino acids, but in certain organisms the genetic code can also include two other amino acids. After linking the amino acids during protein synthesis, each amino acid becomes a residue in a protein, which is then chemically modified, ultimately changing and defining the protein function. In this study, the authors analyze the amino acid sequence using alignment-free methods, aiming to identify structural patterns in sets of proteins and in the proteome, without any other previous assumptions. The paper starts by analyzing amino acid sequence data by means of histograms using fixed length amino acid words (tuples). After creating the initial relative frequency histograms, they are transformed and processed in order to generate quantitative results for information extraction and graphical visualization. Selected samples from two reference datasets are used, and results reveal that the proposed method is able to generate relevant outputs in accordance with current scientific knowledge in domains like protein sequence/proteome analysis.
Resumo:
This work reports a relatively rapid procedure for the forecasting of the remediation time (RT) of sandy soils contaminated with cyclohexane using vapour extraction. The RT estimated through the mathematical fitting of experimental results was compared with that of real soils. The main objectives were: (i) to predict the RT of soils with natural organic matter (NOM) and water contents different from those used in experiments; and (ii) to analyse the time and efficiency of remediation, and the distribution of contaminants into the soil matrix after the remediation process, according to the soil contents of: (ii1) NOM; and (ii2) water. For sandy soils with negligible clay contents, artificially contaminated with cyclohexane before vapour extraction, it was concluded that: (i) if the NOM and water contents belonged to the range of the prepared soils, the RT of real soils could be predicted with relative differences not higher than 12%; (ii1) the increase of NOM content from 0% to 7.5% increased the RT (1.8–13 h) and decreased the remediation efficiency (RE) (99–90%) and (ii2) the increase of soil water content from 0% to 6% increased the RT (1.8–4.9 h) and decreased the RE (99–97%). NOM increases the monolayer capacity leading to a higher sorption into the solid phase. Increasing of soil water content reduces the mass transfer coefficient between phases. Concluding, NOM and water contents influence negatively the remediation process, turning it less efficient and more time consuming, and consequently more expensive.
Resumo:
In the last few years, the number of systems and devices that use voice based interaction has grown significantly. For a continued use of these systems, the interface must be reliable and pleasant in order to provide an optimal user experience. However there are currently very few studies that try to evaluate how pleasant is a voice from a perceptual point of view when the final application is a speech based interface. In this paper we present an objective definition for voice pleasantness based on the composition of a representative feature subset and a new automatic voice pleasantness classification and intensity estimation system. Our study is based on a database composed by European Portuguese female voices but the methodology can be extended to male voices or to other languages. In the objective performance evaluation the system achieved a 9.1% error rate for voice pleasantness classification and a 15.7% error rate for voice pleasantness intensity estimation.
Resumo:
Este trabalho tem como objetivo destacar a importância da utilização de software de geoengenharia no estudo das classificações de maciços rochosos nas engenharias de minas e geotécnica. Esta investigação pretendeu demonstrar a importância das classificações geomecânicas e índices geológico‐geomecânicos, tais como a Rock Mass Rating (RMR), Rock Tunnelling Quality Index (Q‐system), Surface Rock Classification (SRC), Rock Quality Designation (RQD), Geological Strength Index (GSI) and Hydro‐Potential Value (HP). Para esse efeito foi criada e desenvolvida uma calculadora geomecânica – MGC‐RocDesign|CALC: ‘Mining Geomechanics Classification systems for rock engineering design (version beta)’ – para de certa forma tornar mais simples, rápido e preciso o estudo das classificações geomecânicas sem que seja necessário recorrer manualmente às fastidiosas tabelas das classificações. A MGC‐RocDesign|CALC foi criada e desenvolvida no programa de folha de cálculo Microsoft Excel™ em linguagem Visual Basic for Applications© proporcionando o ambiente de carregamento de dados mais apelativos para o utilizador. Foi ainda integrada neste aplicativo a Calculadora Geotech|CalcTools que resulta da fusão das bases de dados ScanGeoData|BGD e SchmidtData|UCS criadas por Fonseca et al. (2010). Toda a informação foi integrada numa base de dados dinâmica associada a uma plataforma cartográfica em Sistemas de Informação Geográfica. Apresenta‐se como caso de estudo um dos trechos subterrâneos do maciço rochoso da antiga mina de volfrâmio das Aveleiras/Tibães (Mosteiro de Tibães, Braga, NW de Portugal). Além disso, apresenta‐se uma proposta de zonamento geomecânico do maciço rochoso da antiga mina das Aveleiras/Tibães com o objetivo de apoiar o dimensionamento de maciços rochosos. Por fim, apresenta‐se uma reflexão em termos de aplicabilidade, das potencialidades e das limitações da Calculadora Geomecânica MGC‐RocDesign|CALC.
Resumo:
Environmental nanoremediation of various contaminants has been reported in several recent studies. In this paper, the state of the art on the use of nanoparticles in soil and groundwater remediation processes is presented. There is a substantive body of evidence on the growing and successful application of nanoremediation for a diversity of soil and groundwater contamination contexts, particularly, for heavy metals, other inorganic contaminants, organic contaminants and emerging contaminants, as pharmaceutical and personal care products. This review confirms the competence of the use of nanoparticles in the remediation of contaminated media and the prevalent use of iron based nanoparticles.