91 resultados para Algoritmo de Colisão de Partículas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este projecto tem como objectivo a optimização das rotas dos técnicos de serviço após venda da Schmitt+Sohn Elevadores, associadas à realização das manutenções preventivas a cada elemento contratado à empresa (elevadores, escadas rolantes, etc). Como tal, é necessário fazer uma distribuição dos equipamentos que se encontram em carteira, por um dos técnicos que assegura a manutenção, pelos vários dias úteis de cada mês, e pelas horas de trabalho de cada dia. Apesar do técnico ter disponíveis, por dia, 8h de trabalho, apenas 6h podem ser preenchidas com manutenções preventivas. As 2h restantes são essencialmente para possíveis manutenções correctivas para as quais o técnico seja solicitado. Caso o técnico não seja contactado para resolver nenhuma avaria, essas horas podem ser utilizadas pelo mesmo para adiantar trabalho do dia seguinte, isto é, visitar já alguns dos próximos pontos de manutenção preventiva do dia seguinte, ou para compensar trabalho que esteja atrasado. De salientar que, para cada dia, as deslocações do técnico de qualquer local ao primeiro ponto de uma rota ou de regresso do último ponto de uma rota não são contabilizadas. O trabalho desenvolvido nesta dissertação pretende dar resposta ao problema apresentado pela Schmitt+Sohn Elevadores. Para isso foi desenvolvida uma heurística para a optimização das rotas dos técnicos. Esta é baseada no conceito de “vizinho mais próximo” que procura sempre o ponto que se apresenta mais perto do último ponto que foi adicionado à rota. Com base nesta metodologia, nos processos de escolha dos pontos que formam clusters, e na selecção dos pontos iniciais de cada uma das rotas diárias, a ferramenta de optimização resultante define as rotas diárias para que o percurso efectuado por cada técnico num mês seja o menor possível. São feitas alterações às rotas definidas inicialmente quando encontrados pontos de uma mesma entrada a serem visitados em dias diferentes. Isto obrigaria o técnico a fazer duas viagens ao mesmo local. Por fim, o resultado é apresentado num documento Word a ser utilizado pelo técnico como guia diário das suas deslocações aos equipamentos que necessitam de verificações periódicas. Os resultados obtidos foram comparados com as rotas que estavam a ser usadas pela empresa, tendo apresentado resultados de melhor qualidade, constatando-se a eficiência da solução criada pelo algoritmo proposto neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avarias em rolamentos são causas comuns de falhas em máquinas e equipamentos industriais. Portanto, é importante a aplicação de técnicas que permitam a deteção e a identificação do problema o mais cedo possível a fim de evitar a destruição do rolamento e consequente paragem da máquina. Logo, o processo de monitorização do estado dos rolamentos deve receber uma atenção especial no plano de manutenção de qualquer indústria. Este trabalho tem, assim, como principal objetivo a caracterização das partículas de desgaste provenientes de rolamentos através da análise dos seus lubrificantes por ferrometria e ferrografia analítica. Estas técnicas permitem identificar e caracterizar as várias partículas de desgaste presentes numa amostra de lubrificante, permitindo não só avaliar o grau de severidade do desgaste mas também identificar o tipo de desgaste predominante (fadiga, abrasão, corrosão,etc.), e até identificar os diferentes materiais das partículas que se podem associar a componentes específicos com falhas. A criação de uma base de dados para armazenar os resultados, os comentários e as informações mais importantes obtidos nos ensaios experimentais, assim como a análise de alguns casos práticos, foram também realizados no âmbito deste trabalho. Para desenvolver um conhecimento mais profundo sobre as técnicas utilizadas foi importante fazer uma análise aos diversos tipos de rolamentos, a sua lubrificação e as causas e tipos principais de avarias encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudoterá por objecto uma reflexão sobre o conteúdo da IAS 32 e sobre os novos critérios de contabilização das entradas para o capital social das cooperativas...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tratamento das águas residuais domésticas surge com o intuito de degradar os poluentes presentes, para que as águas residuais tratadas não prejudiquem o ambiente nem a saúde pública. O presente trabalho teve como objetivo a conceção e o dimensionamento de uma Estação de Tratamento de Águas Residuais (ETAR) na freguesia de Canelas com a finalidade de substituir a já existente e permitir a ampliação da área da rede de saneamento da freguesia. Foram considerados dois tipos de ETAR’s, compacta e convencional, para tratar águas residuais domésticas de aproxidamente 2000 habitantes, com um caudal médio de 400 m3/dia e um caudal de ponta de 1136,7 m3/dia. Das duas opções optou-se pela convencional uma vez que acarreta um menor investimento, no valor de 187 232 €, e se considera também mais adequada às características do efluente a tratar. O tratamento escolhido inclui inicialmente uma gradagem, com uma grade constituída por sete barras com um espaçamento de 20 mm entre elas, seguida de um tamisador rotativo com uma abertura de malha de 3 mm. Depois do tamisador, optou-se por um sistema de desarenação/desengorduramento com um volume do tanque de 3,95 m3 e um fluxo de ar de 17,9 m3/h. Na fase seguinte considerou-se um tratamento biológico por lamas ativadas em regime de arejamento prolongado num tanque de arejamento de volume igual a 245,8 m3 com um arejador submerso, seguindo-se um decantador secundário de volume 33,3 m3. Por último, escolheu-se um sistema de desinfeção por ultravioleta e, a montante do mesmo, um filtro rápido para eliminar pequenas partículas que o efluente ainda possa conter. Para a desinfeção foram consideradas duas secções com cinco módulos de duas lâmpadas cada, ou seja, vinte lâmpadas ultravioleta. Dos resíduos produzidos pelo tratamento da água residual, os gradados e as areias serão encaminhados para aterro, enquanto que as lamas serão enviadas para a ETAR das Termas de S.Vicente, para que sofram o tratamento adequado e sejam encaminhadas para o destinal final adequado (aplicação em solos agrícolas, compostagem ou em alternativa para aterro). No caso da ETAR covencional foi ainda avaliada a possível reutilização de um decantador da ETAR de Milhundos uma vez que esta se encontrava em fase de desativação. Desta avaliação, concluiu-se que não seria economicamente viável o seu reaproveitamento. Mestrado em Engenharia Química – Tecnologias de Proteção Ambiental Para além disso realizou-se também um levantamento dos principais problemas que ocorrem na maioria das ETAR’s e foram apresentadas as respetivas sugestões de resolução. A realização de um inquérito permititu concluir que os odores são o problema que mais causa incómodo à população.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como principal objetivo a criação de uma interface humana, baseada na eletromiografia dos músculos orbicular do olho e frontalis. O algoritmo de programação do microcontrolador ATmega2560 deteta o piscar de olhos voluntário, conta o número de vezes que este acontece e verifica se preenche os requisitos necessários à execução de um comando. Para este efeito foram utilizados elétrodos para a captação do sinal eletromiográfico. O sinal analógico é condicionado pela Shield ECG/EMG da Olimex sendo enviado para o arduíno ATmega2560. Este microcontrolador administra todos os atuadores, dos quais o mais importante é um painel de comandos (quatro comandos diferentes), no qual existe um ponteiro motorizado que indica qual a ação a realizar. O código de execução é extremamente simples:  se o utilizador piscar os olhos três vezes, o ponteiro movimenta-se para a secção do painel imediatamente à direita; e  se o utilizador piscar os olhos quatro vezes, o ponteiro movimenta-se para a secção do painel imediatamente à esquerda. Os testes realizados com este dispositivo indicam que os utilizadores demoram menos de 10 minutos a aprender a utilizar e executar todos os comandos do painel. Apenas num dos testes realizados o dispositivo não funcionou. Dos utilizadores que realizaram o teste:  vários usam óculos;  um idoso com graves problemas auditivos, cegueira parcial e dificuldades locomotoras;  nenhum foi incapaz de piscar, pelo menos, um dos olhos voluntariamente; e  a maioria referiu que, com alguma concentração e principalmente se ouvirem o bip sonoro, a aprendizagem de utilização torna-se muito fácil. Apesar dos limites impostos à concretização de um projeto deste tipo (dos quais se evidenciam as dificuldades em conseguir voluntários com paralisia medular, bem como os limites orçamentais), pode-se afirmar que este dispositivo é eficaz e seria uma mais valia quando implementado num cenário de paralisia medular (total ou parcial). A melhoria de qualidade de vida de um utilizador com estes problemas físicos, ou outros que lhe comprometam a locomoção é garantida. O cenário em que vivem é tremendamente limitado sendo urgente criar soluções para tornar estas vidas mais cómodas. Com os devidos aplicativos, o utilizador poderia abrir portas ou janelas, acender ou apagar luzes, pedir ajuda, ajustar a posição da cama, controlar cadeiras de rodas, entre outros. É neste sentido que surge a minha motivação de criar algo que ajude estas pessoas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A matemática é um edifício intelectual complexo, subtil, construído ao longo dos séculos sobre diversos princípios e regras lógicas. O tão “básico” algoritmo da multiplicação que “mecanicamente” utilizamos é o resultado de uma evolução histórica. Ao longo dos tempos, diferentes povos, em diferentes lugares, desenvolveram variadas técnicas para multiplicar e aqui serão recordadas algumas. Desde o processo de duplicações sucessivas dos egípcios da Antiguidade, e de algumas variações a este, ao processo de multiplicação utilizando as mãos, dos camponeses franceses, passando pelo método da gelosia utilizado pelos árabes que, provavelmente, o aprenderam com os hindus, vários serão os métodos analisados à luz dos conhecimentos actuais. Para terminar, não podedeixar de se abordar o algoritmo usual da multiplicação, frequentemente "ensinado” como se de uma “receita” se tratasse, justificando todos os seus “porquês”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara dedeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara dedeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho consistiu no desenvolvimento e caracterização de sensores potenciométricos com base em polímeros de impressão molecular para a determinação de um antibiótico, a norfloxacina, em aquacultura. A simplicidade, o baixo custo e a interação rápida e reversível dos sensores potenciométricos com os analitos fizeram com que este fosse o tipo de sensor escolhido. O material sensor foi obtido por tecnologia de impressão molecular, baseada em polimerização em bulk, em que a NOR foi a molécula molde e foram utilizados como monómeros para autoconstrução dos sensores o pirrol, isoladamente, ou em conjunto com partículas de sílica gel funcionalizadas com 3-aminopropil. Também foi obtido material sensor, para controlo, em que a molécula molde NOR não estava presente (NIP). As características dos materiais sensores foram sujeitas a análise de microscopia eletrónica SEM e análise por espectrómetro de infravermelhos com transformada de Fourier. Os materiais sensores foram incluídos em membranas poliméricas, que seriam incorporadas em elétrodos. A avaliação do desempenho dos elétrodos foi feita através de curvas de calibração em diferentes meios (PBS, MES e HEPES). Também foi efetuada com sucesso a análise da sensibilidade dos elétrodos em água dopada. As diversas avaliações e análises efetuadas levaram a concluir que o MIP de pirrol com aditivo aniónico, foi o material sensor testado que permitiu obter melhores propriedades de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O escalonamento é uma das decisões mais importantes no funcionamento de uma linha de produção. No âmbito desta dissertação foi realizada uma descrição do problema do escalonamento, identificando alguns métodos para a optimização dos problemas de escalonamento. Foi realizado um estudo ao caso do problema de máquina única através do teste de várias instâncias com o objectivo de minimizar o atraso pesado, aplicando uma Meta-Heurística baseada na Pesquisa Local e dois algoritmos baseados no SB. Os resultados obtidos reflectem que os algoritmos baseados no SB apresentaram resultados mais próximos do óptimo, em relação ao algoritmo baseado na PL. Os resultados obtidos permitem sustentar a hipótese de não existirem algoritmos específicos para os problemas de escalonamento. A melhor forma de encontrar uma solução de boa qualidade em tempo útil é experimentar diferentes algoritmos e comparar o desempenho das soluções obtidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, a utilização dos materiais compósitos tem vindo a tornar-se cada vez mais comum em várias indústrias, onde se verifica uma ascensão na procura pelos mesmos. Características como o baixo peso aliado à sua alta resistência e rigidez permitem que estes materiais possuam diversas aplicações em variadas áreas, desde a medicina, aeronáutica, indústria automóvel e aeroespacial, até à indústria eletrónica. Hoje em dia, o uso de desperdícios sólidos de borracha e fibras naturais na produção de materiais compósitos é, mais que uma opção, uma necessidade ambiental. De forma a reduzir as enormes quantidades de desperdícios, foi criado um material compósito constituído por uma resina termoendurecível reforçada com esses dois tipos de desperdícios. Parâmetros de fabrico como a percentagem de borracha, o tamanho das partículas de borracha, a percentagem de fibras de cana-de-açúcar e o comprimento dessas fibras foram variados, com o objetivo de estudar a influência destes dois materiais nas propriedades mecânicas do compósito. Apesar da maior parte dos compósitos serem fabricados na forma de uma peça funcional quase pronta a ser utilizada, por vezes é necessário recorrer à maquinação de furos. Apesar das muitas técnicas de furação existentes, os defeitos resultantes deste processo aplicado aos materiais compósitos são ainda muito comuns. Desses defeitos o que mais se destaca é sem dúvida a delaminação. Trinta e seis provetes de epóxido reforçado com borracha e fibra de cana-de-açúcar foram fabricados e furados, de modo a possibilitar o estudo das propriedades mecânicas do material compósito, assim como a análise da zona danificada durante a furação. Diferentes condições de furação, como tipos de broca e velocidades de avanço diferentes, foram impostas aos provetes de forma a variar o mais possível a zona de dano de uns furos para os outros. Parâmetros como a área de dano ou ainda o fator de delaminação provam ser muito úteis na caracterização e quantificação do dano na zona periférica de um furo. Recorrendo a técnicas de processamento de imagem foi possível obter esses parâmetros. O processamento e análise de imagem pode ser feito através de vários métodos. O método utilizado neste trabalho foi o software MATLAB® associado a ferramentas de processamento de imagem. Depois de feita a análise dos furos foram realizados ensaios de esmagamento a todos os provetes. Este passo permitiu assim avaliar de que forma os parâmetros de furação influenciam a resistência mecânica do material, e se a avaliação realizada aos furos é um método viável para a avaliação da extensão de dano nesses furos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ensino à distância cresceu consideravelmente nos últimos anos e a tendência é para que continue a crescer em anos vindouros. No entanto, enquanto que a maioria das plataformas de ensino à distância utilizam a mesma abordagem de ensino para todos os utilizadores, os estudantes que as usam são na realidade pessoas de diferentes culturas, locais, idades e géneros, e que possuem diferentes níveis de educação. Ao contrário do ensino à distância tradicional, os sistemas de hipermédia adaptativa educacional adaptam interface, apresentação de conteúdos e navegação, entre outros, às características, necessidades e interesses específicos de diferentes utilizadores. Apesar da investigação na área de sistemas de hipermédia adaptativa já estar bastante desenvolvida, é necessário efetuar mais desenvolvimento e experimentação de modo a determinar quais são os aspetos mais eficazes destes sistemas e avaliar o seu sucesso. A Plataforma de Aprendizagem Colaborativa da Matemática (PCMAT) é um sistema de hipermédia adaptativa educacional com uma abordagem construtivista, que foi desenvolvido com o objetivo de contribuir para a investigação na área de sistemas de hipermédia adaptativa. A plataforma avalia o conhecimento do utilizador e apresenta conteúdos e atividades adaptadas às características e estilo de aprendizagem dominante de estudantes de matemática do segundo ciclo. O desenvolvimento do PCMAT tem também o propósito de auxiliar os alunos Portugueses com a aprendizagem da matemática. De acordo com o estudo PISA 2012 da OCDE [OECD, 2014], o desempenho dos alunos Portugueses na área da matemática melhorou em relação à edição anterior do estudo, mas os resultados obtidos permanecem abaixo da média da OCDE. Por este motivo, uma das finalidades deste projeto é desenvolver um sistema de hipermédia adaptativa que, ao adequar o ensino da matemática às necessidades específicas de cada aluno, os assista com a aquisição de conhecimento. A adaptação é efetuada pelo sistema usando a informação constante no modelo do utilizador para definir um grafo de conceitos do domínio específico. Este grafo é adaptado do modelo do domínio e utilizado para dar resposta às necessidades particulares de cada aluno. Embora a trajetória inicial seja definida pelo professor, o percurso percorrido no grafo por cada aluno é determinado pela sua interação com o sistema, usando para o efeito a representação do conhecimento do aluno e outras características disponíveis no modelo do utilizador, assim como avaliação progressiva. A adaptação é conseguida através de alterações na apresentação de conteúdos e na estrutura e anotações das hiperligações. A apresentação de conteúdos é alterada mostrando ou ocultando cada um dos vários fragmentos que compõe as páginas dum curso. Estes fragmentos são compostos por diferentes objetos de aprendizagem, tais como exercícios, figuras, diagramas, etc. As mudanças efetuadas na estrutura e anotações das hiperligações têm o objetivo de guiar o estudante, apontando-o na direção do conhecimento mais relevante e mantendo-o afastado de informação inadequada. A escolha de objectos de aprendizagem adequados às características particulares de cada aluno é um aspecto essencial do modelo de adaptação do PCMAT. A plataforma inclui para esse propósito um módulo responsável pela recomendação de objectos de aprendizagem, e um módulo para a pesquisa e recuperação dos mesmos. O módulo de recomendação utiliza lógica Fuzzy para converter determinados atributos do aluno num conjunto de parâmetros que caracterizam o objecto de aprendizagem que idealmente deveria ser apresentado ao aluno. Uma vez que o objecto “ideal” poderá não existir no repositório de objectos de aprendizagem do sistema, esses parâmetros são utilizados pelo módulo de pesquisa e recuperação para procurar e devolver ao módulo de recomendação uma lista com os objectos que mais se assemelham ao objecto “ideal”. A pesquisa é feita numa árvore k-d usando o algoritmo k-vizinhos mais próximos. O modelo de recomendação utiliza a lista devolvida pelo módulo de pesquisa e recuperação para seleccionar o objecto de aprendizagem mais apropriado para o aluno e processa-o para inclusão numa das páginas Web do curso. O presente documento descreve o trabalho desenvolvido no âmbito do projeto PCMAT (PTDS/CED/108339/2008), dando relevância à adaptação de conteúdos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas autónomos trazem como mais valia aos cenários de busca e salvamento a possibilidade de minimizar a presença de Humanos em situações de perigo e a capacidade de aceder a locais de difícil acesso. Na dissertação propõe-se endereçar novos métodos para perceção e navegação de veículos aéreos não tripulados (UAV), tendo como foco principal o planeamento de trajetórias e deteção de obstáculos. No que respeita à perceção foi desenvolvido um método para gerar clusters tendo por base os voxels gerados pelo Octomap. Na área de navegação, foram desenvolvidos dois novos métodos de planeamento de trajetórias, GPRM (Grid Probabilistic Roadmap) e PPRM (Particle Probabilistic Roadmap), que tem como método base para o seu desenvolvimento o PRM. O primeiro método desenvolvido, GPRM, espalha as partículas numa grid pré-definida, construindo posteriormente o roadmap na área determinada pela grid e com isto estima o trajeto mais curto até ao ponto destino. O segundo método desenvolvido, PPRM, espalha as partículas pelo cenário de aplicação, gera o roadmap considerando o mapa total e atribui uma probabilidade que irá permitir definir a trajetória otimizada. Para analisar a performance de cada método em comparação com o PRM, efetua-se a sua avaliação em três cenários distintos com recurso ao simulador MORSE.