83 resultados para validation process
Resumo:
Desde o seu aparecimento, a Internet teve um desenvolvimento e uma taxa de crescimento quase exponencial. Os mercados de comércio electrónico têm vindo a acompanhar esta tendência de crescimento, tornando-se cada vez mais comuns e populares entre comerciantes ou compradores/vendedores de ocasião. A par deste crescimento também foi aumentando a complexidade e sofisticação dos sistemas responsáveis por promover os diferentes mercados. No seguimento desta evolução surgiram os Agentes Inteligentes devido à sua capacidade de encontrar e escolher, de uma forma relativamente eficiente, o melhor negócio, tendo por base as propostas e restrições existentes. Desde a primeira aplicação dos Agentes Inteligentes aos mercados de comércio electrónico que os investigadores desta área, têm tentado sempre auto-superar-se arranjando modelos de Agentes Inteligentes melhores e mais eficientes. Uma das técnicas usadas, para a tentativa de obtenção deste objectivo, é a transferência dos comportamentos Humanos, no que toca a negociação e decisão, para estes mesmos Agentes Inteligentes. O objectivo desta dissertação é averiguar se os Modelos de Avaliação de Credibilidade e Reputação são uma adição útil ao processo de negociação dos Agente Inteligentes. O objectivo geral dos modelos deste tipo é minimizar as situações de fraude ou incumprimento sistemático dos acordos realizados aquando do processo de negociação. Neste contexto, foi proposto um Modelo de Avaliação de Credibilidade e Reputação aplicável aos mercados de comércio electrónico actuais e que consigam dar uma resposta adequada o seu elevado nível de exigência. Além deste modelo proposto também foi desenvolvido um simulador Multi-Agente com a capacidade de simular vários cenários e permitir, desta forma, comprovar a aplicabilidade do modelo proposto. Por último, foram realizadas várias experiências sobre o simulador desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. Sendo a conclusão mais importante a verificação/validação de que a utilização de mecanismos de credibilidade e reputação são uma mais-valia para os mercado de comércio electrónico.
Resumo:
Neste trabalho serão apresentados e discutidos vários aspectos relacionados com células de combustível, com particular enfoque na modelação de células de combustível de membrana de permuta protónica. Este trabalho está dividido em vários capítulos. No Capítunlo 1 são apresentadas as motivações e os objectivos da tese. No Capítulo 2 serão apresentadas as células de combustível em geral, a sua origem, os diversos tipos, o que as diferencia das restantes tecnologias de geração de energia e as suas vantagens e desvantagens. No Capítulo 3 discute-se a modelação de células de combustível. Serão expostos e explicados os diferentes tipos de modelos, seguindo-se uma apresentação do modelo selecionado para estudo, com referência aos fundamentos teóricos exposição detalhada da fórmulação matemática e os parâmetros que caracterizam o modelo. É também apresentado a implementação do modelo em Matlab/Simulink. No Capítulo 4 será discutida e apresentada a abordagem utilizada para a identificação dos parâmetros do modelo da célula de combustível. Propõe-se e prova-se que uma abordagem baseada num algoritmo de optimização inteligente proporciona um método eficaz e preciso para a identificação dos parâmetros. Esta abordagem requer a existência de alguns dados experimentais que são também apresentados. O algoritmo utilizado designa-se por Optimização por Enxame de Partículas – Particle Swarm Optimization (PSO). São apresentados os seus fundamentos, características, implementação em Matlab/Simulink e a estratégia de optimização, isto é, a configuração do algoritmo, a definição da função objectivo e limites de variação dos parâmetros. São apresentados os resultados do processo de optimização, resultados adicionais de validação do modelo, uma análise de robustez do conjunto óptimo de parâmetros e uma análise de sensibilidade dos mesmos. O trabalho termina apresentando, no último capítulo, algumas conclusões, das quais se destacam: - O bom desempenho do algoritmo PSO para a identificação dos parâmetros do modelo da célula de combsutível; - Uma robustez interessante do algoritmo PSO, no sentido em que, para várias execuções do método resultam valores do parâmetros e da função objectivo com variabilidade bastante reduzidas; - Um bom modelo da célula de combustível, que quando caracterizado pelo conjunto óptimo de parâmetros, apresenta, sistematicamente, erros relativos médios inferiores a 2,5% para um conjunto alargado de condições de funcionamento.
Resumo:
Numa sociedade cada vez mais e mais virada para a Internet e para a procura de informação e soluções para todo e qualquer tipo de problema de forma instantânea, imediata ou mesmo urgente, a resolução de conflitos na sua forma mais comum, ou seja, no recurso judicial aos tribunais, parece começar a ser demasiado demorada e ineficaz. Neste sentido, as pessoas procuram, de uma maneira cada vez mais recorrente, alternativas para solucionar estes conflitos, de forma mais célere, sem que no entanto a avaliação da solução encontrada perca qualidade. Surgem, então, sistemas de resolução alternativa de conflitos (Alternative Dispute Resolution – ADR), ou ainda no ambiente Web (Online Dispute Resolution – ODR). As técnicas de ADR com maior destaque são a negociação, a arbitragem e a mediação. Em qualquer dos casos, facilmente podemos associar a sua eficiência e eficácia à utilização da argumentação no processo, satisfazendo as exigências dos implicados no conflito, já que é dada voz às suas perspectivas sobre o mesmo. Argumentar permite expor factos e justificações de suporte ou oposição relativamente ao conflito, enriquecendo a solução e tornando mais claro o entendimento da mesma. Neste trabalho será abordado o tema dos ADR, fazendo uma breve explicação da sua forma de utilização, suas principais técnicas (a negociação, a arbitragem e a mediação), será ainda abordada a argumentação, bem como a sua integração com os sistemas de resolução alternativa de conflitos. O modelo de argumentação de Toulmin foi objecto de análise e aplicação para a resolução do problema definido nesta dissertação, através da sua aplicação aos processos de argumentação. Será proposto um modelo suporte à resolução alternativa de conflitos, e desenvolvido um protótipo que permita a sua validação no contexto estudado.
Resumo:
Este projeto teve como objetivo a utilização de ferramentas e conceitos Lean, para análise e implementação da Melhoria de Processos em ambiente fabril, com o intuito de melhorar o sistema produtivo em algumas secções da empresa SCHMITT+SOHN Elevadores. Pretende-se nesta primeira fase uma melhoria na comunicação entre os vários setores fabris, assim como uma melhoria no fluxo dos materiais. Pretende-se igualmente uma simplificação das ações dos operadores nos seus locais de trabalho. Foi para isso necessário, numa fase inicial, a recolha e análise dos diversos dados necessários ao trabalho proposto. Foram feitos diversos VSM’s e análises de fluxo em duas secções da empresa, com o intuito de estudar a situação atual e posteriormente proceder à implementação de um sistema Kanban. Foram também analisados problemas a nível de stocks e armazenamento de matéria-prima e materiais diversos tendo sido concretizadas diversas soluções. O trabalho que apresentamos foi fortemente condicionado por imperativos ditados pela empresa, tendo o nosso estudo e aplicações praticas um suporte de apenas 3 meses. No restante período estivemos condicionados pela empresa a trabalhos de conhecimento do funcionamento da mesma, formação em Kaizen e preparação para as implementações de VSM e Kanban. Nesta fase é ainda prematura a validação dos resultados obtidos nas secções, visto que o processo para a implementação do sistema Kanban ainda se encontra em fase de desenvolvimento.
Resumo:
A Teia Mundial (Web) foi prevista como uma rede de documentos de hipertexto interligados de forma a criar uma espaço de informação onde humanos e máquinas poderiam comunicar. No entanto, a informação contida na Web tradicional foi/é armazenada de forma não estruturada o que leva a que apenas os humanos a possam consumir convenientemente. Consequentemente, a procura de informações na Web sintáctica é uma tarefa principalmente executada pelos humanos e nesse sentido nem sempre é fácil de concretizar. Neste contexto, tornou-se essencial a evolução para uma Web mais estruturada e mais significativa onde é dado significado bem definido à informação de forma a permitir a cooperação entre humanos e máquinas. Esta Web é usualmente referida como Web Semântica. Além disso, a Web Semântica é totalmente alcançável apenas se os dados de diferentes fontes forem ligados criando assim um repositório de Dados Abertos Ligados (LOD). Com o aparecimento de uma nova Web de Dados (Abertos) Ligados (i.e. a Web Semântica), novas oportunidades e desafios surgiram. Pergunta Resposta (QA) sobre informação semântica é actualmente uma área de investigação activa que tenta tirar vantagens do uso das tecnologias ligadas à Web Semântica para melhorar a tarefa de responder a questões. O principal objectivo do projecto World Search passa por explorar a Web Semântica para criar mecanismos que suportem os utilizadores de domínios de aplicação específicos a responder a questões complexas com base em dados oriundos de diferentes repositórios. No entanto, a avaliação feita ao estado da arte permite concluir que as aplicações existentes não suportam os utilizadores na resposta a questões complexas. Nesse sentido, o trabalho desenvolvido neste documento foca-se em estudar/desenvolver metodologias/processos que permitam ajudar os utilizadores a encontrar respostas exactas/corretas para questões complexas que não podem ser respondidas fazendo uso dos sistemas tradicionais. Tal inclui: (i) Ultrapassar a dificuldade dos utilizadores visionarem o esquema subjacente aos repositórios de conhecimento; (ii) Fazer a ponte entre a linguagem natural expressa pelos utilizadores e a linguagem (formal) entendível pelos repositórios; (iii) Processar e retornar informações relevantes que respondem apropriadamente às questões dos utilizadores. Para esse efeito, são identificadas um conjunto de funcionalidades que são consideradas necessárias para suportar o utilizador na resposta a questões complexas. É também fornecida uma descrição formal dessas funcionalidades. A proposta é materializada num protótipo que implementa as funcionalidades previamente descritas. As experiências realizadas com o protótipo desenvolvido demonstram que os utilizadores efectivamente beneficiam das funcionalidades apresentadas: ▪ Pois estas permitem que os utilizadores naveguem eficientemente sobre os repositórios de informação; ▪ O fosso entre as conceptualizações dos diferentes intervenientes é minimizado; ▪ Os utilizadores conseguem responder a questões complexas que não conseguiam responder com os sistemas tradicionais. Em suma, este documento apresenta uma proposta que comprovadamente permite, de forma orientada pelo utilizador, responder a questões complexas em repositórios semiestruturados.
Resumo:
A square-wave voltammetric (SWV) method using a hanging mercury drop electrode (HMDE) has been developed for determination of the herbicide molinate in a biodegradation process. The method is based on controlled adsorptive accumulation of molinate for 10 s at a potential of -0.8 V versus AgCl/Ag. An anodic peak, due to oxidation of the adsorbed pesticide, was observed in the cyclic voltammogram at ca. -0.320 V versus AgCl/Ag; a very small cathodic peak was also detected. The SWV calibration plot was established to be linear in the range 5.0x10-6 to 9.0x10-6 mol L-1; this corresponded to a detection limit of 3.5x10-8 mol L-1. This electroanalytical method was used to monitor the decrease of molinate concentration in river waters along a biodegradation process using a bacterial mixed culture. The results achieved with this voltammetric method were compared with those obtained by use of a chromatographic method (HPLC–UV) and no significant statistical differences were observed.
Resumo:
A new procedure for determining eleven organochlorine pesticides in soils using microwave-assisted extraction (MAE) and headspace solid phase microextraction (HS-SPME) is described. The studied pesticides consisted of mirex, α- and γ-chlordane, p,p’-DDT, heptachlor, heptachlor epoxide isomer A, γ-hexachlorocyclohexane, dieldrin, endrin, aldrine and hexachlorobenzene. The HS-SPME was optimized for the most important parameters such as extraction time, sample volume and temperature. The present analytical procedure requires a reduced volume of organic solvents and avoids the need for extract clean-up steps. For optimized conditions the limits of detection for the method ranged from 0.02 to 3.6 ng/g, intermediate precision ranged from 14 to 36% (as CV%), and the recovery from 8 up to 51%. The proposed methodology can be used in the rapid screening of soil for the presence of the selected pesticides, and was applied to landfill soil samples.
Resumo:
Microwave-assisted extraction (MAE) of agar from Gracilaria vermiculophylla, produced in an integrated multitrophic aquaculture (IMTA) system, from Ria de Aveiro (northwestern Portugal), was tested and optimized using response surface methodology. The influence of the MAE operational parameters (extraction time, temperature, solvent volume and stirring speed) on the physical and chemical properties of agar (yield, gel strength, gelling and melting temperatures, as well as, sulphate and 3,6-anhydro-Lgalactose contents) was evaluated in a 2^4 orthogonal composite design. The quality of the extracted agar compared favorably with the attained using traditional extraction (2 h at 85ºC) while reducing drastically extraction time, solvent consumption and waste disposal requirements. Agar MAE optimum results were: an yield of 14.4 ± 0.4%, a gel strength of 1331 ± 51 g/cm2, 40.7 ± 0.2 _C gelling temperature, 93.1 ± 0.5ºC melting temperature, 1.73 ± 0.13% sulfate content and 39.4 ± 0.3% 3,6-anhydro-L-galactose content. Furthermore, this study suggests the feasibility of the exploitation of G. vermiculophylla grew in IMTA systems for agar production.
Resumo:
Screening of topologies developed by hierarchical heuristic procedures can be carried out by comparing their optimal performance. In this work we will be exploiting mono-objective process optimization using two algorithms, simulated annealing and tabu search, and four different objective functions: two of the net present value type, one of them including environmental costs and two of the global potential impact type. The hydrodealkylation of toluene to produce benzene was used as case study, considering five topologies with different complexities mainly obtained by including or not liquid recycling and heat integration. The performance of the algorithms together with the objective functions was observed, analyzed and discussed from various perspectives: average deviation of results for each algorithm, capacity for producing high purity product, screening of topologies, objective functions robustness in screening of topologies, trade-offs between economic and environmental type objective functions and variability of optimum solutions.
Resumo:
This study uses the process simulator ASPEN Plus and Life Cycle Assessment (LCA) to compare three process design alternatives for biodiesel production from waste vegetable oils that are: the conventional alkali-catalyzed process including a free fatty acids (FFAs) pre-treatment, the acid-catalyzed process, and the supercritical methanol process using propane as co-solvent. Results show that the supercritical methanol process using propane as co-solvent is the most environmentally favorable alternative. Its smaller steam consumption in comparison with the other process design alternatives leads to a lower contribution to the potential environmental impacts (PEI’s). The acid-catalyzed process generally shows the highest PEI’s, in particular due to the high energy requirements associated with methanol recovery operations.
Resumo:
Amulti-residue methodology based on a solid phase extraction followed by gas chromatography–tandem mass spectrometry was developed for trace analysis of 32 compounds in water matrices, including estrogens and several pesticides from different chemical families, some of them with endocrine disrupting properties. Matrix standard calibration solutions were prepared by adding known amounts of the analytes to a residue-free sample to compensate matrix-induced chromatographic response enhancement observed for certain pesticides. Validation was done mainly according to the International Conference on Harmonisation recommendations, as well as some European and American validation guidelines with specifications for pesticides analysis and/or GC–MS methodology. As the assumption of homoscedasticity was not met for analytical data, weighted least squares linear regression procedure was applied as a simple and effective way to counteract the greater influence of the greater concentrations on the fitted regression line, improving accuracy at the lower end of the calibration curve. The method was considered validated for 31 compounds after consistent evaluation of the key analytical parameters: specificity, linearity, limit of detection and quantification, range, precision, accuracy, extraction efficiency, stability and robustness.
Resumo:
Os desafios à engenharia moderna são cada vez maiores, pretendendo-se quase sempre obter estruturas mais leves, com propriedades mecânicas atrativas e muitas vezes com geometrias complexas. Com tais requisitos, um dos materiais que tem vindo a ter uma crescente aplicação é o material compósito. Contudo, no que toca ao cálculo estrutural destes materiais, tudo se torna mais complexo, já que são materiais que geralmente são formados por empilhamento de várias camadas de material heterogéneo, podendo estas encontrarem-se dispostas segundo diferentes orientações. Assim, a utilização de um software que permita a previsão das propriedades mecânicas de uma estrutura em material compósito através da micromecânica, a aplicação da Teoria Clássica dos Laminados e de um critério de rotura, como por exemplo o de Tsai-Hill, é fundamental para agilizar o processo de estudo da estrutura a fabricar. Para dar uma resposta a tal necessidade foi desenvolvida uma aplicação, em MATLAB® GUI, denominada CAFE – Composite Analysis For Engineers, com ambiente gráfico apelativo, que permite determinar todas as variáveis importantes no estudo de estruturas em material compósito. Esta aplicação visa suportar e agilizar a aprendizagem desta área do conhecimento, permitindo também o acesso ao código de cálculo por parte do utilizador, de modo a conhecerem-se as equações utilizadas e, eventualmente, ser alvo de futuros desenvolvimentos. O programa desenvolvido foi alvo de validação, recorrendo-se para tal, a uma comparação dos resultados obtidos entre o respetivo programa e por um outro programa de grande fiabilidade. Assim sendo, concluiu-se que o software CAFE apresenta resultados válidos, encontrando-se apto a ser utilizado.
Resumo:
A norfloxacina e o trimetoprim são dois antibióticos antibacterianos usados para o tratamento de infeções urinárias, intestinais e respiratórias. A maioria dos fármacos exige uma dosagem que garanta os níveis de segurança e eficácia de atuação. A necessidade de dosear os medicamentos e os seus metabolitos é assim um controlo imperioso e em muitos casos regular no tratamento de um paciente. Neste trabalho desenvolveram-se dois sensores eletroquímicos para a deteção da norfloxacina (NFX) e do trimetoprim (TMP), usando como superfície de suporte o carbono vítreo. A busca de novos materiais que conferiram maior seletividade e sensibilidade aos sistemas de deteção e por outro lado apresentem menores riscos para o paciente quando usados em dispositivos que permitam uma análise point-of-care, é especialmente importante e pode ser uma parte crucial do processo de decisão clínica. Assim, os polímeros molecularmente impresos enquadram-se nesse perfil e o seu uso tem vindo a ser cada vez mais avaliado. A impressão molecular é uma tecnologia capaz de produzir polímeros que incorporam as moléculas do analito e que após remoção por solventes específicos, permitem dotá-los de locais específicos de reconhecimento estereoquímico. A seleção do pirrol como polímero molecularmente impresso (MIP) permitiu construir com sucesso os sensores para doseamento dos antibióticos. A fim de aumentar a sensibilidade do método incorporou-se grafeno na superfície do elétrodo. Este material tem vindo a ser largamente utilizado devido às suas propriedades: estrutura molecular, condutividade elétrica e aumento da superfície são algumas das características que mais despertam o interesse para a sua aplicação neste projeto. Os sensores desenvolvidos foram incorporados em sistemas eletroquímicos. Os métodos voltamétricos aplicados foram a voltametria cíclica, a voltametria de onda quadrada e ainda a impedância. As condições de análise foram otimizadas no que respeita à polimerização do pirrol (concentração do polímero, número de ciclos de eletropolimerização e respetivos potenciais aplicados, tempo de incubação, solvente de remoção do analito), ao pH da solução do fármaco, à gama de concentrações dos antibióticos e aos parâmetros voltamétricos dos métodos de análise. Para cada um dos antibióticos um elétrodo não-impresso foi também preparado, usando o procedimento de polimerização mas sem a presença da molécula do analito, e foi usado como controlo. O sensor desenvolvido para o trimetoprim foi usado no doseamento do fármaco em amostras de urina. As amostras foram analisadas sem qualquer diluição, apenas foram centrifugadas para remoção de proteínas e algum interferente. Os sensores construídos apresentaram comportamento linear na gama de concentrações entre 102 e 107 mol/L. Os resultados mostram boa precisão (desvios padrão inferiores a 11%) e os limites de deteção foram de 8,317 e 1,307 mol/L para a norfloxacina e o trimetoprim, respetivamente. Para validação do método foram ainda efetuados ensaios de recuperação tendo obtido valores superiores a 94%.
Resumo:
Food lipid major components are usually analyzed by individual methodologies using diverse extractive procedures for each class. A simple and fast extractive procedure was devised for the sequential analysis of vitamin E, cholesterol, fatty acids, and total fat estimation in seafood, reducing analyses time and organic solvent consumption. Several liquid/liquid-based extractive methodologies using chlorinated and non-chlorinated organic solvents were tested. The extract obtained is used for vitamin E quantification (normal-phase HPLC with fluorescence detection), total cholesterol (normal-phase HPLC with UV detection), fatty acid profile, and total fat estimation (GC-FID), all accomplished in <40 min. The final methodology presents an adequate linearity range and sensitivity for tocopherol and cholesterol, with intra- and inter-day precisions (RSD) from 3 to 11 % for all the components. The developed methodology was applied to diverse seafood samples with positive outcomes, making it a very attractive technique for routine analyses in standard equipped laboratories in the food quality control field.
Resumo:
A repository of learning objects is a system that stores electronic resources in a technology-mediated learning process. The need for this kind of repository is growing as more educators become eager to use digital educa- tional contents and more of it becomes available. The sharing and use of these resources relies on the use of content and communication standards as a means to describe and exchange educational resources, commonly known as learning objects. This paper presents the design and implementation of a service-oriented reposi- tory of learning objects called crimsonHex. This repository supports new definitions of learning objects for specialized domains and we illustrate this feature with the definition of programming exercises as learning objects and its validation by the repository. The repository is also fully compliant with existing commu- nication standards and we propose extensions by adding new functions, formalizing message interchange and providing a REST interface. To validate the interoperability features of the repository, we developed a repository plug-in for Moodle that is expected to be included in the next release of this popular learning management system.