29 resultados para métodos de detecção baseado em modelos

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O motor assíncrono de indução é, de facto, a máquina actualmente preferida para a grande maioria dos accionamentos, graças à sua fiabilidade, robustez e baixo custo. Dado que ocupa um lugar preponderante no processo produtivo têm‐se desenvolvido diversos métodos de detecção de avarias que permitem diagnosticar qualquer tipo de defeito e quantificar o seu grau de severidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação aborda o problema de detecção e desvio de obstáculos "SAA- Sense And Avoid" em movimento para veículos aéreos. Em particular apresenta contribuições tendo em vista a obtenção de soluções para permitir a utilização de aeronaves não tripuladas em espaço aéreo não segregado e para aplicações civis. Estas contribuições caracterizam-se por: uma análise do problema de SAA em \UAV's - Unmmaned Aerial Vehicles\ civis; a definição do conceito e metodologia para o projecto deste tipo de sistemas; uma proposta de \ben- chmarking\ para o sistema SAA caracterizando um conjunto de "datasets\ adequados para a validação de métodos de detecção; respectiva validação experimental do processo e obtenção de "datasets"; a análise do estado da arte para a detecção de \Dim point features\ ; o projecto de uma arquitectura para uma solução de SAA incorporando a integração de compensação de \ego motion" e respectiva validação para um "dataset" recolhido. Tendo em vista a análise comparativa de diferentes métodos bem como a validação de soluções foi proposta a recolha de um conjunto de \datasets" de informação sensorial e de navegação. Para os mesmos foram definidos um conjunto de experiências e cenários experimentais. Foi projectado e implementado um setup experimental para a recolha dos \datasets" e realizadas experiências de recolha recorrendo a aeronaves tripuladas. O setup desenvolvido incorpora um sistema inercial de alta precisão, duas câmaras digitais sincronizadas (possibilitando análise de informa formação stereo) e um receptor GPS. As aeronaves alvo transportam um receptor GPS com logger incorporado permitindo a correlação espacial dos resultados de detecção. Com este sistema foram recolhidos dados referentes a cenários de aproximação com diferentes trajectórias e condições ambientais bem como incorporando movimento do dispositivo detector. O método proposto foi validado para os datasets recolhidos tendo-se verificado, numa análise preliminar, a detecção do obstáculo (avião ultraleve) em todas as frames para uma distância inferior a 3 km com taxas de sucesso na ordem dos 95% para distâncias entre os 3 e os 4 km. Os resultados apresentados permitem validar a arquitectura proposta para a solução do problema de SAA em veículos aéreos autónomos e abrem perspectivas muito promissoras para desenvolvimento futuro com forte impacto técnico-científico bem como sócio-economico. A incorporação de informa formação de \ego motion" permite fornecer um forte incremento em termos de desempenho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências dedeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A seleção de fornecedores é considerada atualmente estratégica para as empresas que estão inseridas em ambientes cada vez mais dinâmicos e exigentes. Nesta dissertação são determinados os critérios e métodos mais usados no problema de seleção de fornecedores. Para estes serem alcançados, analisaram-se artigos da área e de ilustres autores para assim se perceber quais os critérios das áreas mais influentes, na hora de tomada de decisão sobre os melhores fornecedores para as empresas. A partir deste estudo foi construído um inquérito de resposta curta, enviado a empresas a laborar em Portugal, para se obter as importâncias dadas aos critérios por parte das empresas. Com estas respostas conclui-se que critérios relacionados com a qualidade e o custo são os mais relevantes. Relativamente aos métodos, foram estudados teórica e praticamente, o AHP e o SMART. O primeiro por ser o mais referenciado nos artigos estudados e o segundo por ser o mais simples de implementar e usar. No SMART foram criadas as funções valor para regerem o funcionamento do método. Estas funções foram desenvolvidas de raiz, com base num estudo bibliográfico prévio para cada um dos subcritérios, para se entender qual o melhor tipo de função a aplicar definindo matematicamente melhor o comportamento de cada um deles. A tomada de decisão é bastante importante nas organizações, pois pode conduzir ao sucesso ou insucesso. Assim é explicado a envolvente da tomada de decisão, o problema da seleção dos fornecedores, como se desenvolve o processo de seleção e quais são os métodos existentes para auxiliar a escolha dos mesmos. Por fim é apresentado o modelo proposto baseado nos resultados obtidos através do inquérito, e a aplicação dos dois métodos (AHP e SMART) para um melhor entendimento dos mesmos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O século XX, sobretudo na segunda metade, trouxe para os sistemas de informação empresariais (estes são o suporte de múltiplos modelos ligados à planificação, ao controlo e à tomada de decisões em geral) alterações espectaculares, cujo difícil domínio é o motor de novas propostas e achegas multidisciplinares. Como parte essencial dos referidos sistemas, a Contabilidade de Custos tem perseguido determinar valores unitários de bens ou serviços, de funções ou outros portadores de custos, com diferentes propósitos segundo objectivos, épocas e áreas geográficas concretas. Durante os últimos anos do século passado e no primeiro quartel deste, os cálculos ligaram-se essencialmente ao produto como forma de actuar sobre a eficiência laboral. Os engenheiros industriais (em empresas multinacionais americanas), preocupados em conseguir uma maior racionalidade na utilização dos recursos, estudaram profundamente a normalização e standardização dos materiais e equipamentos, o preestabelecimento de métodos e a medida dos tempos de trabalho. A sua investigação estendeu-se também à forma de organização mais adequada para o desenvolvimento da actividade empresarial; de tal forma que, sob a “batuta” de homens como F. W. Taylor (e o seu método de trabalho para definir tarefas e ferramentas mais adequadas a cada actividade), E. Mayo (e a sua preocupação pelas condições de trabalho em equipa) ou H. Fayol (e a sua procura sistemática das características que devem contribuir para a administração eficiente das organizações), foram-se confirmando os conteúdos actuais dos conceitos de disciplina e ordem, liderança e hierarquia, iniciativa e espírito de superação, etc; assim como novas formas de entender, organizar e realizar o trabalho, que configurarão relações laborais diferentes das herdadas da sociedade pré-industrial. Corolário de tudo foram a especialização e a departamentalização da empresa, bem como o progressivo aparecimento de uma estrutura funcional, com competências pessoais marcadas pela hierarquia. Os engenheiros, com o objectivo de racionalizarem ao máximo as tarefas produtivas, criaram as bases para o desenvolvimento do custo “standard” (padrão) e reuniram o seu estudo com os problemas da direcção geral do negócio: os padrões técnicos serão referência obrigatória para a remuneração do pessoal e a programação de existências e compras, assim como para determinar as actividades dos centros (base do cálculo dos orçamentos); e ainda se revelaram um óptimo instrumento de controlo. Acompanhando este movimento, o cálculo do custo industrial centrar-se-à nos produtos (como portadores finais dos diferentes consumos necessários para a sua obtenção) sobre a base dos padrões técnicos definidos para eles. Não obstante, na primeira metade do nosso século, e sob a pressão de uma procura crescente de informação financeira, iniciou-se a passagem da gestão de custos à contabilidade de custos: os textos de contabilidade dos anos 20 propõem o cálculo do custo de produção com uma orientação clara - valorizar as existências para a informação financeira (Balanço e Resultados no fim do exercício). Só depois da 2ª Guerra Mundial se começa a falar de gestão e, por consequência, de custos para a planificação, controlo e tomada de decisões (Johnson e Kaplan, 1987). Impõe-se uma reflexão sobre os diferentes significados que o custo tem tido ao longo do nosso século (ligando esses significados às circunstâncias que provocaram cada elaboração) para a sua construção futura.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ao longo destes últimos anos as ligações adesivas têm vindo a verificar um aumento progressivo em aplicações estruturais em detrimento das ligações mecânicas convencionais. Esta alteração de paradigma deve-se às vantagens que as juntas adesivas possuem relativamente aos outros métodos de ligação. A mecânica da fratura e os Modelos de Dano Coesivo (MDC) são critérios comuns para prever a resistência em juntas adesivas e usam como parâmetros fundamentais as taxas de libertação de energia. Pelo facto do ensaio 4-Point End Notched Flexure (4-ENF), aplicado em juntas adesivas, ainda estar pouco estudado é de grande relevância um estudo acerca da sua viabilidade para a determinação da taxa crítica de libertação de energia de deformação ao corte (GIIc). Esta dissertação tem como objetivo principal efetuar uma comparação entre os métodos End- Notched Flexure (ENF) e 4-ENF na determinação de GIIc em juntas adesivas. Para tal foram utilizados 3 adesivos: Araldite® AV138, Araldite® 2015 e SikaForce® 7752. O trabalho experimental passou pela conceção e fabrico de uma ferramenta para realização do ensaio 4-ENF, seguindo-se o fabrico e a preparação dos provetes para os ensaios. Pelo facto do ensaio 4-ENF ainda se encontrar pouco divulgado em juntas adesivas, e não se encontrar normalizado, uma parte importante do trabalho passou pela pesquisa e análise em trabalhos de investigação e artigos científicos. A análise dos resultados foi realizada por comparação direta dos valores de GIIc com os resultados obtidos no ensaio ENF, sendo realizada por série de adesivo, através da comparação das curvas P-δ e curvas-R. Como resultado verificou-se que o ensaio 4-ENF em ligações adesivas não é o mais versátil para a determinação do valor de GIIc, e que apenas um método de obtenção de GIIc é viável. Este método é baseado na medição do comprimento de fenda (a). Ficou evidenciado que o ensaio ENF, devido a ser um ensaio normalizado, por apresentar um setup mais simples e por apresentar uma maior disponibilidade de métodos para a determinação do valor de GIIc, é o mais recomendado. Conclui-se assim que o ensaio 4-ENF, embora sendo uma alternativa ao ensaio ENF, tem aplicação mais limitada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: O acidente vascular encefálico (AVE) é uma importante e frequente condição de saúde que se repercute na funcionalidade do indivíduo. No sentido de reabilitar a função perdida, é comum o recurso a intervenções de fisioterapia baseado o conceito de Bobath. Como tal, importa verificar, as modificações no âmbito do controlo postural, através da migração do centro de pressão na base de suporte, face à aplicação de uma intervenção segundo abordagem baseada no conceito de Bobath em dois indivíduos com AVE. Métodos e participantes: Foram recrutados dois indivíduos com diagnóstico de AVE num hospital da zona do grande Porto. Dados referentes ao equilíbrio estático na condição de medição “olhos abertos ou fechados” e “calçado ou descalço” foram obtidos através de plataforma de forças, antes e após uma intervenção baseado no conceito de Bobath durante 13 semanas (M0 e M1). Nestes dois momentos foram ainda avaliados a mobilidade, função cognitiva, participação, equilíbrio através do teste Timed Up & Go (TUG) e Timed Up & Go Modificado (TUGM), e das escalas Mini Mental State Examination (MMSE), Postural Assessment for Stroke Scale (PASS), Escala de Berg (EB) e Índice de Barthel Modificado (IBM). Resultados: Os participantes obtiveram em ambos os momentos pontuação máxima no MMSE. Ambos os indivíduos atingiram o valor máximo no IBM em M1 (Mo: A: 78; B: 65). Ambos os indivíduos aumentaram o score entre M0 e M1, relativamente ao PASS (A: M0:21; M1:33; B: M0: 26; M1:34) e EB (A: M0:48; M1:54; B: M0: 30; M1:50). O tempo de realização do TUG e do TUGM diminuíram entre momentos em ambos os indivíduos (respectivamente: A: 15''13'' a 13''27''; B: 24''13'' a 13''88'' e A: 19''08''' a 13''27''; B: 29''60''' a 17''64'''). A área de deslocação do centro de pressão (CP) variou entre momentos em todas as condições de avaliação, sendo menor na condição “olhos abertos e descalço” em ambos os participantes (“olhos abertos e calçado”: A: M0= 1,364, M1=2,796; B: M0=1,892, M1=2,979; “olhos abertos e descalço”: A: M0= 0,758, M1=0,727; B: M0=3,064, M1=1,952; “olhos fechados e calçado”: A: M0= 2,360, M1=2,998; B: M0=2,232, M1= 4,392; “olhos fechados e descalço”: A: M0= 1,347, M1=2,388; B: M0=1,652, M1= 1,016). O desvio padrão das deslocações anteroposteriores variou entre momentos, sendo tendencialmente maior em M1 e na condição “descalço e olhos abertos”(“olhos abertos e calçado”: A: M0= 0,201, M1=0,500; B: M0=0,252, M1=0,310; “olhos abertos e descalço”: A: M0= 0,118, M1=0,165; B: M0=0,282, M1=0,276; “olhos fechados e calçado”: A: M0= 0,308, M1=0,398; B: M0=0,274, M1= 0,471; “olhos fechados e descalço”: A: M0= 0,158 , M1=0,373; B: M0=0,230, M1= 0,172), o desvio padrão das deslocações médio-lateral seguem a mesma tendência (“olhos abertos e calçado”: A: M0= 0,370 , M1=0,473; B: M0=0,454, M1=0,517; “olhos abertos e descalço”: A: M0= 0,354, M1=0,236 ; B: M0=0,584, M1=0,381; “olhos fechados e calçado”: A: M0= 0,425, M1=0,463; B: M0=0,462, M1= 0,583; “olhos fechados e descalço”: A: M0= 0,475, M1=0,416; B: M0=0,389, M1= 0,342). A velocidade de oscilação na direcção antero – posterior variou entre momentos, sendo tendencialmente menor em M1, em ambos os participantes e em todas as condições de avaliação: “olhos abertos e calçado”: A: M0= 0,886 , M1=0,532; B: M0=2,507, M1=01,072; “olhos abertos e descalço”: A: M0= 2,562, M1=3,815 ; B: M0=4,367, M1=0,262; “olhos fechados e calçado”: A: M0= 2,689, M1=1,757; B: M0=2,821, M1= 0,769; “olhos fechados e descalço”: A: M0= 2,984, M1=2,525; B: M0=4,100, M1= 0,265), a velocidade de oscilação na direcção médio – lateral seguem a mesma tendência para as condições de “olhos abertos e calçado”: A: M0= 6,524 , M1=6,218; B: M0=0,467, M1=0,404; “olhos fechados e calçado”: A: M0= 6,387, M1=1,927; B: M0=0,351, M1= 0,505; mas a velocidade de oscilação aumenta para as condições de “olhos abertos e descalço”: A: M0= 3,108, M1=7,806 ; B: M0=1,150, M1=8,054; “olhos fechados e descalço”: A: M0= 3,444, M1=3,839; B: M0=1,434, M1= 7,891). Conclusão: Entre os dois momentos os indivíduos melhoraram a sua mobilidade, equilíbrio, participação e actividades, potencialmente devido à intervenção baseado no conceito de Bobath.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica – Sistemas Eléctricos de Energia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objectivo o desenvolvimento de um método analítico, baseado na voltametria de onda quadrada (SWV), para a análise de ciprofloxacina (CIP) em produtos farmacêuticos e em processos de remediação. Para o desenvolvimento do método voltamétrico foram utilizadas duas células voltamétricas: a célula clássica (utilizando um eléctrodo de trabalho de carbono vítreo - GCE) e um eléctrodo de carbono impresso (SPCE). Após a optimização dos parâmetros da SWV, pH (3,04), frequência (400Hz), incremento de potencial (6 mV) e amplitude do impulso de potencial (40 mV), procedeu-se a validação dos métodos, obtendo-se zonas lineares entre a concentração de CIP e a intensidade de corrente de pico de 5,0×10-6 a 6,0×10-5 mol/L (GCE) e de 1,0×10-5 a 4,0×10-5 mol/L (SPCE) e limites de detecção de 9,48×10-6 mol/L (GCE) e 2,13×10-6 mol/L (SPCE). Verificou-se que a sensibilidade, a precisão e a selectividade são superiores para o SPCE, sendo por isso esta a célula mais adequada para proceder à análise da CIP em produtos farmacêuticos. O SPCE foi aplicado com sucesso à análise de CIP num produto farmacêutico. Para o tratamento de soluções aquosas contendo a CIP foram testados dois oxidantes: o permanganato de potássio e o peróxido de hidrogénio. Para o peróxido de hidrogénio os resultados obtidos foram inconclusivos. No caso do permanganato de potássio, os resultados mostram que a degradação da ciprofloxacina depende da concentração do oxidante. Para uma concentração de CIP de 3,00×10-4 mol/L uma degradação rápida foi obtida com o uso de 6,00×10-3 mol/L de permanganato de potássio. Na aplicação do permanganato na remediação de solos verificou-se que no caso de solos húmicos a ciprofloxacina é adsorvida pelo solo, não sendo possível confirmar a ocorrência da reacção de degradação. No caso de solos arenosos verificou-se que a ciprofloxacina foi rapidamente degradada pelo permanganato de potássio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A navegação de veículos autónomos em ambientes não estruturados continua a ser um problema em aberto. A complexidade do mundo real ainda é um desafio. A difícil caracterização do relevo irregular, dos objectos dinâmicos e pouco distintos(e a inexistência de referências de localização) tem sido alvo de estudo e do desenvolvimento de vários métodos que permitam de uma forma eficiente, e em tempo real, modelizar o espaço tridimensional. O trabalho realizado ao longo desta dissertação insere-se na estratégia do Laboratório de Sistemas Autónomos (LSA) na pesquisa e desenvolvimento de sistemas sensoriais que possibilitem o aumento da capacidade de percepção das plataformas robóticas. O desenvolvimento de um sistema de modelização tridimensional visa acrescentar aos projectos LINCE (Land INtelligent Cooperative Explorer) e TIGRE (Terrestrial Intelligent General proposed Robot Explorer) maior autonomia e capacidade de exploração e mapeamento. Apresentamos alguns sensores utilizados para a aquisição de modelos tridimensionais, bem como alguns dos métodos mais utilizados para o processo de mapeamento, e a sua aplicação em plataformas robóticas. Ao longo desta dissertação são apresentadas e validadas técnicas que permitem a obtenção de modelos tridimensionais. É abordado o problema de analisar a cor e geometria dos objectos, e da criação de modelos realistas que os representam. Desenvolvemos um sistema que nos permite a obtenção de dados volumétricos tridimensionais, a partir de múltiplas leituras de um Laser Range Finder bidimensional de médio alcance. Aos conjuntos de dados resultantes associamos numa nuvem de pontos coerente e referenciada. Foram desenvolvidas e implementadas técnicas de segmentação que permitem inspeccionar uma nuvem de pontos e classifica-la quanto às suas características geométricas, bem como ao tipo de estruturas que representem. São apresentadas algumas técnicas para a criação de Mapas de Elevação Digital, tendo sido desenvolvida um novo método que tira partido da segmentação efectuada