44 resultados para Pigmentos. Métodos de polimerização de complexos. Planejamento fatorial fracionado


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we present a classification of some of the existing Penalty Methods (denominated the Exact Penalty Methods) and describe some of its limitations and estimated. With these methods we can solve problems of optimization with continuous, discrete and mixing constrains, without requiring continuity, differentiability or convexity. The boarding consists of transforming the original problem, in a sequence of problems without constrains, derivate of the initial, making possible its resolution for the methods known for this type of problems. Thus, the Penalty Methods can be used as the first step for the resolution of constrained problems for methods typically used in by unconstrained problems. The work finishes discussing a new class of Penalty Methods, for nonlinear optimization, that adjust the penalty parameter dynamically.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A vasta aplicação de antibióticos em sistemas de aquacultura tem conduzido ao aparecimento de espécies microbianas resistentes, devendo ser evitada ou, se possível, minimizada. A minimização implica um controlo muito rigoroso das doses aplicadas, algo que só pode ser realizado se todo o processo analítico for simples, barato e puder ser implementado no local. O presente trabalho descreve para este efeito um sistema sensor constituído por papel quimicamente modificado, cujo procedimento analítico foi semelhante à monitorização de pH através das conhecidas tiras indicadoras de pH universal. O papel foi modificado com base em reacções de monocamadas e assumiu uma coloração típica após contacto com o antibiótico. A intensidade da coloração estava também relacionada com a concentração desse antibiótico. Como prova deste conceito, o sensor proposto foi desenhado tendo em vista a monitorização de oxitetraciclina, um dos antibióticos utilizados neste contexto com elevada frequência. A modificação do papel foi baseada na alteração química das unidades de glucose na matriz sólida por reacção covalente com reagentes apropriados. Foram utilizadas duas estratégias diferentes para este efeito: uma foi baseada em reacções de tipo sol-gel e a outra em reacção de adição nucleófila. Posteriormente, o papel foi modificado com espécies metálicas capazes de mudar de cor na presença da oxitetraciclina. Estas modificações químicas foram avaliadas e optimizadas relativamente a vários parâmetros, no sentido de promover uma variação de cor intensa face à concentração de antibiótico. Procedeu-se ainda ao controlo desta modificação por técnicas de espectroscopia de infravermelho. A variação de cor foi avaliada por comparação visual, mas registada por imagem digital. Os materiais sensores preparados foram ainda caracterizados do ponto de vista do seu desempenho analítico. Incluíram-se aqui a identificação de uma relação linear entre coordenadas de cor e concentração, a atribuição de uma gama de concentrações capaz de fornecer uma resposta previsível e resposta cruzada face a outros antibióticos. Procedeu-se ainda à aplicação dos sensores numa amostra de água ambiental dopada com antibiótico. De uma forma geral, foi possível estabelecer um processo simples de modificação de papel capaz de aferir a presença e a quantidade de tetraciclinas, mais concretamente a oxitetraciclina. O processo aqui estabelecido é promissor, antevendo a concretização de uma metodologia simples, barata e local para a monitorização de anitbióticos em águas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Casa da Música Foundation, responsible for the management of Casa da Música do Porto building, has the need to obtain statistical data related to the number of building’s visitors. This information is a valuable tool for the elaboration of periodical reports concerning the success of this cultural institution. For this reason it was necessary to develop a system capable of returning the number of visitors for a requested period of time. This represents a complex task due to the building’s unique architectural design, characterized by very large doors and halls, and the sudden large number of people that pass through them in moments preceding and proceeding the different activities occurring in the building. To achieve the technical solution for this challenge, several image processing methods, for people detection with still cameras, were first studied. The next step was the development of a real time algorithm, using OpenCV libraries and computer vision concepts,to count individuals with the desired accuracy. This algorithm includes the scientific and technical knowledge acquired in the study of the previous methods. The themes developed in this thesis comprise the fields of background maintenance, shadow and highlight detection, and blob detection and tracking. A graphical interface was also built, to help on the development, test and tunning of the proposed system, as a complement to the work. Furthermore, tests to the system were also performed, to certify the proposed techniques against a set of limited circumstances. The results obtained revealed that the algorithm was successfully applied to count the number of people in complex environments with reliable accuracy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação considera a importância da avaliação imobiliária no mercado imobiliário, nas mais diversas situações. Contudo, cinge-se à determinação de um presumível valor de transação para apartamentos, moradias, lojas e terrenos, para venda ou arrendamento. Os mercados imobiliários escolhidos são dois concelhos conhecidos, da autora, por ser mais fácil a perceção dos locais e preços de venda. Foi escolhido o Concelho de Valongo para apartamentos, moradias e terrenos e o Concelho da Maia para lojas. Para determinarmos os valores em estudo adotaram-se os métodos de avaliação imobiliária mais comuns nomeadamente: o Método Comparativo, Método do Rendimento e o Método do Custo. São apresentados os métodos de avaliação mais utilizados, descrevendo-se a aplicação de cada um deles e as suas condições necessárias. Fez-se uma comparação entre cada um o que permitiu concluir sobre os mesmos. A recolha dos imóveis objeto de estudo foi efetuada em Sites de empresas imobiliárias que dispunham de informação necessária ao âmbito do trabalho. Aplicaram-se os métodos a cada caso recolhido e posteriormente fez-se a comparação dos resultados obtidos. Através de tratamento estatístico, utilizaram-se as técnicas de regressão múltipla para análise de relações entre os métodos de avaliação aplicados. Por fim, retiraram-se conclusões sobre a relação existente entre os três métodos de avaliação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As estruturas coladas são geralmente projetadas para que o adesivo seja essencialmente sujeito a esforços de corte, pois neste tipo de solicitação o adesivo apresenta melhores caraterísticas mecânicas. A avaliação do comportamento ao corte pode ser realizada com o adesivo no estado maciço ou como camada fina em juntas adesivas. Os métodos que permitem avaliar o comportamento ao corte, quer para o adesivo, quer para as juntas, são: o ensaio Iosipescu ou V-Notched beam shear method, o ensaio de borboleta ou Notched plate shear method (Arcan), o ensaio de torsão, o ensaio de tração numa junta de sobreposição simples e o ensaio Thick Adherend Shear Test (TAST). Os ensaios Arcan e Iosipescu, tal como o ensaio de torção, podem ser realizados em provetes de adesivo maciço ou em juntas. O ensaio de torção é pouco utilizado, porque a aplicação do esforço de corte exige dispositivos e equipamentos de ensaios complexos. Os ensaios Arcan e Iosipescu utilizam provetes com entalhes e podem introduzir alguma dificuldade na medição precisa das deformações. O ensaio de tração numa junta de sobreposição simples é um dos métodos mais usados para caraterizar uma junta adesiva, porque é um método simples, as juntas são de fácil fabrico e pode ser realizado em máquinas universais de ensaios mecânicos. Neste ensaio os aderentes estão sujeitos a uma solicitação de tração, enquanto a camada de adesivo está sujeita a esforços de corte combinados com esforços de arrancamento. Os esforços de arrancamento resultam da própria geometria da junta na qual existe um desalinhamento das forças de tração, mesmo quando são colocados calços (reguladores de espessura) nos locais de amarração. O ensaio TAST é dos mais populares para obtenção das propriedades ao corte, uma vez que tanto as ferramentas de ensaio como o fabrico dos provetes são relativamente simples. Este ensaio é realizado em junta sendo os substratos espessos e de aço que, devido à sua elevada rigidez, contribuem para um esforço de corte praticamente puro no adesivo. Neste trabalho realizou-se o projeto e a fabricação das ferramentas, gabarit e substratos necessários para a execução de provetes TAST e ensaios utilizando diferentes adesivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentam-se os resultados da analise e comparação da utilização da Análise de Componentes Principais Clássica (ACP) e a Análise de Componentes Principais Robusta (ACPR) na descrição da relação entre a profundidade de um solo florestal e as alterações em quatro propriedades geoquímicas fundamentais. Os resultados obtidos reconhecem que, neste tipo de dados e cala local, a utilização da ACPR deve ser utilizada em detrimento da ACP e que o procedimento de amostragem de solos pouco férteis, como é o caso dos solos florestais, pode ser aliviado em termos de detalhe em profundidade por uma amostragem a uma altura única de 18cm mas deve, contudo, ser efectuada estrategicamente, dado que a localização dos pontos de amostragem revela ter significativa influência nos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré-concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Norfloxacina (NFX) é um antibiótico antibacteriano indicado para combater bactérias Gram-negativas e amplamente utilizado para o tratamento de infeções no trato respiratório e urinário. Com a necessidade de realizar estudos clínicos e farmacológicos esenvolveram-se métodos de análise rápida e sensitiva para a determinação da Norfloxacina. Neste trabalho foi desenvolvido um novo sensor eletroquímico sensível e seletivo para a deteção da NFX. O sensor foi construído a partir de modificações efetuadas num elétrodo de carbono vítreo. Inicialmente o elétrodo foi modificado com a deposição de uma suspensão de nanotubos de carbono de paredes múltiplas (MWCNT) de modo a aumentar a sensibilidade de resposta analítica. De seguida um filme polímerico molecularmente impresso (MIP) foi preparado por eletrodeposição, a partir de uma solução contendo pirrol (monómero funcional) e NFX (template). Um elétrodo de controlo não impresso foi também preparado (NIP). Estudouse e caraterizou-se a resposta eletroquímica do sensor para a oxidação da NFX por voltametria de onda quadrada. Foram optimizados diversos parâmetros experimentais, tais como, condições ótimas de polimerização, condições de incubação e condições de extração. O sensor apresenta um comportamento linear entre a intensidade da corrente do pico e o logaritmo da concentração de NFX na gama entre 0,1 e 8μM. Os resultados obtidos apresentam boa precisão, com repetibilidade inferior a 6% e reprodutibilidade inferior a 9%. Foi calculado a partir da curva de calibração um limite de deteção de 0,2 μM O método desenvolvido é seletivo, rápido e de fácil manuseamento. O sensor molecularmente impresso foi aplicado com sucesso na deteção da NFX em amostras de urina real e água.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos utilizados pela Medicina moderna no âmbito da Imagem Molecular e na sua capacidade de diagnosticar a partir da “Função do Orgão” em vez da “Morfologia do Orgão”, vieram trazer á componente fundamental desta modalidade da Imagiologia Médica – A Medicina Nuclear – uma importância acrescida, que se tem traduzido num aumento significativo no recurso á sua utilização nas diferentes formas das suas aplicações clínicas. Para além dos aspectos meramente clínicos, que só por si seriam suficientes para ocupar várias dissertações como a presente; a própria natureza desta técnica de imagem, com a sua inerente baixa resolução e tempos longos de aquisição, vieram trazer preocupações acrescidas quanto ás questões relacionadas com a produtividade (nº de estudos a realizar por unidade de tempo); com a qualidade (aumento da resolução da imagem obtida) e, com os níveis de actividade radioactiva injectada nos pacientes (dose de radiação efectiva sobre as populações). Conhecidas que são então as limitações tecnológicas associadas ao desenho dos equipamentos destinados á aquisição de dados em Medicina Nuclear, que apesar dos avanços introduzidos, mantêm mais ou menos inalteráveis os conceitos base de funcionamento de uma Câmara Gama, imaginou-se a alteração significativa dos parâmetros de aquisição (tempo, resolução, actividade), actuando não ao nível das condições técnico-mecânicas dessa aquisição, mas essencialmente ao nível do pós-processamento dos dados adquiridos segundo os métodos tradicionais e que ainda constituem o estado da arte desta modalidade. Este trabalho tem então como objectivo explicar por um lado, com algum pormenor, as bases tecnológicas que desde sempre têm suportado o funcionamento dos sistemas destinados á realização de exames de Medicina Nuclear, mas sobretudo, apresentar as diferenças com os inovadores métodos, que aplicando essencialmente conhecimento (software), permitiram responder ás questões acima levantadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No ambiente altamente competitivo de hoje, um processo eficaz de seleção de fornecedores é muito importante para o sucesso de qualquer organização [33]. Esta dissertação procura determinar quais os critérios e métodos mais utilizados no problema da seleção de fornecedores, contribuindo assim para o apoio a entidades que pretendam iniciar uma seleção de fornecedores de uma forma mais eficaz. Para atingir os objetivos propostos, foi realizada uma análise de artigos que fazem a revisão literária dos métodos e critérios desde o ano de 1985 até ao ano 2012. Com os dados obtidos destas revisões, foi possível identificar quais os três principais métodos utilizados ao longo dos anos, sendo eles o DEA, AHP e Fuzzy set theory e os principais critérios utilizados na seleção de fornecedores. Nesta dissertação, é apresentada uma visão geral da tomada de decisão e os métodos utilizados na tomada de decisão multicritério. É abordado o problema da seleção de fornecedores, o seu processo de seleção e as revisões literárias dos métodos e critérios de seleção utilizados nos últimos anos. Por fim, é apresentada a contribuição para a seleção de fornecedores do estudo realizado durante o desenvolvimento desta dissertação, sendo apresentados e explicados os principais métodos de seleção de fornecedores, bem como os critérios utilizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Portugal continental apresenta uma vasta área florestal, que representa cerca de 35,4% da ocupação total do solo, com predominância de espécies como o eucalipto (Eucalyptus globulus) e o pinheiro-bravo (Pinus pinaster). Estas espécies apresentam uma elevada importância a nível económico, designadamente devido à sua ampla utilização, nomeadamente na indústria de celulose e papel, gerando elevadas quantidades de resíduos. Este resíduo de biomassa florestal é utilizado, na sua totalidade, para a geração de energia, na forma de eletricidade ou aquecimento. No entanto, existem outras opções viáveis, a nível económico, tais como a valorização destes subprodutos como fonte de compostos polifenólicos tornando-os, assim, um produto de valor acrescentado. A extração de compostos fenólicos de subprodutos florestais, como folhas de eucalipto e agulhas de pinheiros tem vindo a aumentar devido, principalmente, à substituição de antioxidantes sintéticos, contribuindo para a valorização de subprodutos florestais. Contudo, apesar de todas as potenciais aplicações e vantagens, apenas algumas centenas de espécies aromáticas identificadas são utilizadas à escala comercial. Neste trabalho foi avaliada a capacidade antioxidante de subprodutos da floresta, otimizando as condições de extração através do estudo dos fatores: tempo de extração, temperatura e composição de solvente através do método de superfície de resposta. O planeamento experimental utilizado teve como base um planeamento de compósito central e a avaliação do perfil de antioxidantes das matrizes analisadas foi realizada através de métodos de quantificação total, como o teor fenólico total, a atividade anti-radicalar – método do DPPH (radical 2,2-difenil-1-picrilhidrazilo) e o método de FRAP. Estes métodos analíticos convencionais foram modificados e, devidamente validados, para a análise em leitor de microplacas. Verificou-se que os extratos de pinheiro e de eucalipto, tanto as amostras verdes com as amostras, apresentam uma promissora capacidade antioxidante. O planeamento fatorial aplicado permitiu otimizar as condições de extração em relação às matrizes verdes. Contudo, o mesmo não se verificou em relação às matrizes secas. A composição (% de água) é sem dúvida o fator com mais efeito em todas as amostras (coeficientes de primeira e segunda ordem no modelo). Também a temperatura foi identificada como um fator com efeito significativo sobre os sistemas em análise.