924 resultados para probabilistic Hough transform
Resumo:
Background: Mushroom polysaccharides play an important role in functional foods because they exhibit biological modulator properties such as antitumour, antiviral and antibacterial activities. The present study involved the production, purification and characterisation of intracellular and extracellular free and protein-bound polysaccharides from Pleurotus ostreatus and the investigation of their growth-inhibitory effect on human carcinoma cell lines. Results: Several fermentation parameters were obtained: batch polysaccharide productivities of 0.013 +/- 8.12 x 10-5 and 0.037 +/- 0.0005 g L-1 day-1 for intracellular and extracellular polysaccharides respectively, a maximum biomass concentration of 9.35 +/- 0.18 g L-1, Pmax = 0.935 +/- 0.018 g L-1 day-1, µmax = 0.218 +/- 0.02 day-1, YEP/X = 0.040 +/- 0.0015 g g-1 and YIP/X = 0.014 +/- 0.0003 g g-1. Some polysaccharides exhibited superoxide dismutase (SOD)-like activity of 50-200 units. Fourier transform infrared analysis of the polysaccharides revealed absorption bands characteristic of such biological macromolecules. Cytotoxicity assays showed that both intracellular and extracellular polysaccharides exhibited antitumour activity towards several tested human carcinoma cell lines in a dose-dependent manner. Conclusion - The polysaccharides of P. ostreatus exhibited high SOD-like activity, which strongly supports their biological effect on tumour cell lines. The extracellular polysaccharides presented the highest antitumour activity towards the RL95 carcinoma cell line and should be further investigated as an antitumour agent.
Resumo:
Nonlinear Dynamics, Vol. 29
Resumo:
This paper provides a two-stage stochastic programming approach for the development of optimal offering strategies for wind power producers. Uncertainty is related to electricity market prices and wind power production. A hybrid intelligent approach, combining wavelet transform, particle swarm optimization and adaptive-network-based fuzzy inference system, is used in this paper to generate plausible scenarios. Also, risk aversion is explicitly modeled using the conditional value-at-risk methodology. Results from a realistic case study, based on a wind farm in Portugal, are provided and analyzed. Finally, conclusions are duly drawn.
Resumo:
In Proceedings of the “ECCTD '01 - European Conference on Circuit Theory and Design, Espoo, Finland, August 2001
Resumo:
Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.
Resumo:
Proceedings of the European Control Conference, ECC’01, Porto, Portugal, September 2001
Resumo:
Tese de doutoramento, Belas-Artes (Teoria da Imagem), Universidade de Lisboa, Faculdade de Belas-Artes, 2013
Resumo:
Redundant manipulators allow the trajectory optimization, the obstacle avoidance, and the resolution of singularities. For this type of manipulators, the kinematic control algorithms adopt generalized inverse matrices that may lead to unpredictable responses. Motivated by these problems this paper studies the complexity revealed by the trajectory planning scheme when controlling redundant manipulators. The results reveal fundamental properties of the chaotic phenomena and give a deeper insight towards the development of superior trajectory control algorithms.
Resumo:
Under the pseudoinverse control, robots with kinematical redundancy exhibit an undesirable chaotic joint motion which leads to an erratic behavior. This paper studies the complexity of fractional dynamics of the chaotic response. Fourier and wavelet analysis provides a deeper insight, helpful to know better the lack of repeatability problem of redundant manipulators. This perspective for the study of the chaotic phenomena will permit the development of superior trajectory control algorithms.
Resumo:
This paper presents the new package entitled Simulator of Intelligent Transportation Systems (SITS) and a computational oriented analysis of traffic dynamics. The SITS adopts a microscopic simulation approach to reproduce real traffic conditions considering different types of vehicles, drivers and roads. A set of experiments with the SITS reveal the dynamic phenomena exhibited by this kind of system. For this purpose a modelling formalism is developed that embeds the statistics and the Laplace transform. The results make possible the adoption of classical system theory tools and point out that it is possible to study traffic systems taking advantage of the knowledge gathered with automatic control algorithms. A complementary perspective for the analysis of the traffic flow is also quantified through the entropy measure.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Química e Biológica