55 resultados para Programação heuristica
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação - Especialidade Educação Especial
Resumo:
No futuro, o papel da televisão pública ver-se-á condicionado pelo processo acelerado de evolução que marca uma transição da forma dominante da televisão de fluxo à televisão de stock – algo que já acontece, aliás, nos nossos dias. O meio tem evoluído desde o seu nascimento, respondendo a uma tensão existente entre dois vectores de força, em cujos pólos encontramos, por um lado, a inovação tecnológica e, por outro, a regulação. O primeiro pólo está representado na linha temporal pelo movimento entre o deslumbramento da tecnologia analógica e o da tecnologia digital. O segundo marca o momento em que a televisão deixa de ser considerada um bem público (ideia dominante) e passa a ser vista como mais uma indústria. Os dois pólos têm mantido uma relação activa e de mútuo condicionamento. Pode-se dizer que a regra subjacente a esta dinâmica tem sido a seguinte: a um menor grau de inovação tecnológica corresponde uma maior regulação; um maior grau de inovação está associado a uma maior desregulação. Se concordamos que o nascimento da televisão corresponde ao grau zero de inovação (pese embora a própria invenção da mesma tenha constituído uma novidade espectacular), também é verdade que esse grau pressupunha o uso de uma tecnologia que possibilitava a transmissão à distância de som e imagens em movimento, sem necessidade de se dispor de um elo físico. Para tal, nesta fase de desenvolvimento tecnológico, era utilizada a modulação das ondas hertzianas, um bem escasso que permitia transmitir sem interferências um número limitado de canais.
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Artística, na especialização de Teatro na Educação
Resumo:
A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.
Resumo:
O presente trabalho aborda uma intervenção de reabilitação num edifício cuja função será alterada: o edifício abandona a função de edifício administrativo (escritórios), e assume uma função de Hotel. É com esta intenção que se elabora este estudo analisando, em concreto, a alteração na rede de abastecimento de água. Na fase de projecto é feita a concepção da rede de abastecimento de água, para que a intervenção não seja intrusiva, num edifício com alguma riqueza arquitectónica e estética, e ainda com os condicionantes impostos sobretudo, pela estrutura resistente. Por outro lado, pela função do edifício torna-se necessário assegurar níveis de conforto elevados. A preocupação pelos pormenores na concepção da rede de abastecimento de água tem um resultado prático muito significativo na fase de exploração do edifício, isto é, quando entrar em funcionamento. Faz-se o enquadramento para a Manutenção da rede de abastecimento de água, que pode e deve ser extensiva aos restantes componentes do edifício. A consideração de adequada Manutenção, devidamente planeada, conferirá ao edifício um envelhecimento sustentável, minorando os efeitos que poderiam resultar de não programação de acções de manutenção.
Resumo:
Esta tese apresenta o desenvolvimento de um simulador de voo, através da aplicação de um modelo dinâmico de uma aeronave e de sistemas de realidade virtual a uma plataforma electromecânica de Gough-Stewart. Para o efeito, utiliza-se o modelo da aeronave Cessna-172. Neste sentido, apresenta-se o estudo e a análise do sistema de realidade virtual utilizado, confirma-se o funcionamento do modelo matemático da aeronave em ferramenta de cálculo e apresenta-se o modelo da cinemática inversa da plataforma, cuja validação é realizada recorrendo-se a um sensor inercial. Desenvolve-se programação específica para a comunicação entre o software de cálculo numérico e a plataforma electromecânica de Gough-Stewart.
Resumo:
Os sistemas de redes de campo ligando componentes de automação e máquinas possuem uma performance muito elevada, relativamente à sua velocidade e capacidade de funcionamento em tempo-real. Estes apresentam também uma variedade de funcionalidades tais como comunicação cruzada, protocolos de segurança e endereçamento automático. Além disso, definem também aproximações lógicas ao tipo de máquinas em questão, de acordo com o seu perfil de funcionamento. No entanto, todas estas funcionalidades tornam a configuração e programação de aplicações comunicando nestas redes de campo extremamente complexa. Para além da complexidade existente na configuração e programação de um único sistema de redes de campo, existe também uma panóplia de diferentes sistemas de redes de campo, totalmente incompatíveis entre si. Contudo, estes pouco se diferenciam relativamente às suas funcionalidades e performance. Neste trabalho é elaborada uma comparação entre 4 diferentes perfis de accionamentos (CiA 402, CIP Motion, FSP Drive e PROFIdrive) para sistemas de redes de campo baseados em Ethernet (Ethercat, Ethernet/IP, PROFInet e SERCOS. Com este resultado, o acesso aos diferentes sistemas de redes de campo poderá ser generalizado, de forma que a aplicação a desenvolver seja independente do sistema localizado nas camadas OSI inferiores.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
O presente trabalho teve como principal objectivo o desenvolvimento de um analisador de vibrações de dois canais baseado em computador, para a realização de diagnóstico no âmbito do controlo de condição de máquinas. Foi desenvolvida uma aplicação num computador comum, no software LabVIEW, que através de transdutores de aceleração do tipo MEMS conectados via USB, faz a recolha de dados de vibração e procede ao seu processamento e apresentação ao utilizador. As ferramentas utilizadas para o processamento de dados são ferramentas comuns encontradas em vários analisadores de vibrações disponíveis no mercado. Estas podem ser: gráficos de espectro de frequência, sinal no tempo, cascata ou valores de nível global de vibração, entre outras. Apesar do analisador desenvolvido não apresentar inovação nas ferramentas de análise adoptadas, este pretende ser distinguido pelo baixo custo, simplicidade e carácter didáctico. Este trabalho vem evidenciar as vantagens, desvantagens e potencialidades de um analisador desta natureza. São tiradas algumas conclusões quanto à sua capacidade de diagnóstico de avarias, capacidades como ferramenta didáctica, sensores utilizados e linguagem de programação escolhida. Como conclusões principais, o trabalho revela que os sensores escolhidos não são os indicados para efectuar o diagnóstico de avarias em ambiente industrial, contudo são ideais para tornar este analisador numa boa ferramenta didáctica e de treino.
Resumo:
A crescente procura da bicicleta como meio de transporte alternativo torna relevante a criação e desenvolvimento de infra-estruturas de apoio, tais como ciclovias e parques para bicicletas. Os sistemas tradicionais de parqueamento de bicicletas com recurso a correntes e cadeados não fornecem segurança nem comodidade. No entanto, começam a surgir, em várias cidades do mundo, parque automáticos onde é possível guardar uma bicicleta em segurança, protegendo-a quer das intempéries quer de actos de vandalismo. Este trabalho apresenta uma proposta para um parque automático de armazenamento de bicicletas, com recurso a caixas individualizadas que garantem a sua segurança, e também de outros bens que podem ser guardados junto da mesma, como por exemplo um capacete ou uma mochila. O sistema proposto no âmbito deste trabalho é um complemento às alternativas existentes. As vantagens apresentadas pelo sistema proposto são: a sua construção modular e personalizada; e a possibilidade de instalação num terreno plano, sem recurso a obras de construção civil. O objectivo foi criar um projecto de automação e controlo de um protótipo, com base na proposta apresentada. O projecto de automação e controlo engloba a escolha dos sensores e dos actuadores. Para o dimensionamento dos motores foi necessário recorrer a um cálculo simplificado da estrutura do robô manipulador. Foi feita a escolha dos sensores, actuadores e do controlador com base nos requisitos funcionais. A programação foi desenvolvida numa linguagem normalizada. O modelo desenvolvido poderá servir de base para um projecto multidisciplinar entre vários departamentos do Instituto e dessa cooperação poderá surgir um novo projecto optimizado para produção e de menor custo.
Resumo:
O trabalho que se apresenta incide sobre o estudo aerodinâmico das pás de uma turbina eólica de pequeno porte, com vista à simplificação geométrica, de forma a que estas sejam baratas e de fácil concepção. A teoria da quantidade de movimento do elemento de pá (BEMT), que é o modelo de referência para o projecto e análise aerodinâmica das pás das turbinas eólicas, foi utilizada neste trabalho de forma a projectar e analisar aerodinamicamente as pás da turbina. Sendo assim, desenvolveu-se um programa computacional em MATLAB, denominado de “Turbina”, de forma a implementar a teoria BEM. Introduzindo os dados dos parâmetros de projecto no programa (potência requerida, o número de pás, velocidade do vento, a TSR e o tipo de perfil alar), obtêm-se os parâmetros geométricos das pás (distribuição da corda ao longo da envergadura, o raio da pá e a distribuição da torção da pá), os parâmetros aerodinâmicos e de desempenho. Uma pá ideal foi calculada e de seguida foi modificada de forma a obter-se uma pá simples e menos carregada aerodinamicamente. Introduzidas as modificações na geometria da pá ideal, obtiveram-se duas configurações distintas. Uma configuração linear, onde a distribuição da corda e do ângulo de torção se tornam lineares, e outra configuração bi-linear, onde a distribuição da corda continua linear mas o ângulo de torção se torna bi-linear, isto é, a pá é composta por dois troços onde cada troço apresenta uma distribuição linear do ângulo de torção geométrica. As conclusões demonstram que a configuração bi-linear é uma boa alternativa a configuração ideal, apresentando uma redução do desempenho do rotor de 2.8% para um aumento do raio da pá em 1.41%, para se obter a mesma potência da configuração ideal. A análise aos perfis alares, utilizados neste trabalho, foi efectuada a partir dos programas comerciais ICEM e FLUENT. De forma a automatizar a análise de CFD, três programas foram desenvolvidos utilizando a linguagem de programação “C”. Os programas são denominados de “Malha2D”, “Calcula_Coeficientes” e “Plot_Graficos”. Finalmente, um estudo paramétrico foi feito de forma a avaliar a influências das variáveis de projecto no desempenho geral da turbina.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.