82 resultados para Sistemas autoadaptativos. Geração dinâmica de processos. Ambiente OSGi
Resumo:
A atividade humana e industrial usa a água para as suas atividades do quotidiano. A água é um recurso natural escasso cuja qualidade deve ser protegida, defendida, gerida e tratada em conformidade com o seu uso. Nesse âmbito, a gestão das águas prossegue objetivos de proteção da saúde humana e de preservação, proteção e melhoria da qualidade do ambiente[1]. Desde o final do seculo XIX até aos dias de hoje, verificou-se uma forte evolução nos sistemas de tratamento de águas residuais. Esta evolução foi fundamental para dar resposta às maiores exigências de qualidade do efluente tratado. O sistema de lamas ativadas é um dos processos de tratamento biológico das águas residuais mais usados em todo o mundo. Este trabalho consiste no desenvolvimento do projeto de conceção e dimensionamento de uma Estação de Tratamento de Águas Residuais (ETAR) para servir um pequeno aglomerado de cerca de 3200 habitantes equivalentes (hab.eq.), tendo como objetivo o dimensionamento de todas as etapas de tratamento necessárias ao cumprimento da legislação em vigor para a descarga das águas residuais urbanas no meio recetor. O Decreto-lei nº 152/97[2], relativo ao tratamento de águas residuais urbanas, juntamente com o Decreto-lei nº 149/2004[3] que identifica as zonas sensíveis e de zonas menos sensíveis, permitem que as entidades licenciadoras definam o grau de tratamento que a instalação deve possuir tendo em consideração a classificação do meio onde o efluente tratado é descarregado. O Decreto-Lei n.º 135/2009[1] estabelece o regime de identificação, gestão, monitorização e classificação da qualidade das águas balneares, impondo a qualidade microbiológica da água residual tratada mediante o meio recetor, e portanto conseguindo-se assim definir o tratamento de desinfeção a adotar. Resumidamente, a conceção do tratamento focou as seguintes etapas: tratamento preliminar formado por uma unidade compacta de tamisação, desarenador e desengordurador, tratamento secundário por lamas ativadas em regime de arejamento prolongado constituído por dois reatores com cerca de 400 m3 de volume seguido de um decantador com um diâmetro de 9.5 m, tratamento terciário de desinfeção composto por uma microtamisação seguido de desinfeção UV, e a utilização das operações comuns de espessamento e desidratação das lamas produzidas em excesso pelo tratamento, constituída por com um espessador gravítico com 4.6 m de diâmetro, e um filtro banda para a desidratação.
Resumo:
É possível assistir nos dias de hoje, a um processo tecnológico evolutivo acentuado por toda a parte do globo. No caso das empresas, quer as pequenas, médias ou de grandes dimensões, estão cada vez mais dependentes dos sistemas informatizados para realizar os seus processos de negócio, e consequentemente à geração de informação referente aos negócios e onde, muitas das vezes, os dados não têm qualquer relacionamento entre si. A maioria dos sistemas convencionais informáticos não são projetados para gerir e armazenar informações estratégicas, impossibilitando assim que esta sirva de apoio como recurso estratégico. Portanto, as decisões são tomadas com base na experiência dos administradores, quando poderiam serem baseadas em factos históricos armazenados pelos diversos sistemas. Genericamente, as organizações possuem muitos dados, mas na maioria dos casos extraem pouca informação, o que é um problema em termos de mercados competitivos. Como as organizações procuram evoluir e superar a concorrência nas tomadas de decisão, surge neste contexto o termo Business Intelligence(BI). A GisGeo Information Systems é uma empresa que desenvolve software baseado em SIG (sistemas de informação geográfica) recorrendo a uma filosofia de ferramentas open-source. O seu principal produto baseia-se na localização geográfica dos vários tipos de viaturas, na recolha de dados, e consequentemente a sua análise (quilómetros percorridos, duração de uma viagem entre dois pontos definidos, consumo de combustível, etc.). Neste âmbito surge o tema deste projeto que tem objetivo de dar uma perspetiva diferente aos dados existentes, cruzando os conceitos BI com o sistema implementado na empresa de acordo com a sua filosofia. Neste projeto são abordados alguns dos conceitos mais importantes adjacentes a BI como, por exemplo, modelo dimensional, data Warehouse, o processo ETL e OLAP, seguindo a metodologia de Ralph Kimball. São também estudadas algumas das principais ferramentas open-source existentes no mercado, assim como quais as suas vantagens/desvantagens relativamente entre elas. Em conclusão, é então apresentada a solução desenvolvida de acordo com os critérios enumerados pela empresa como prova de conceito da aplicabilidade da área Business Intelligence ao ramo de Sistemas de informação Geográfica (SIG), recorrendo a uma ferramenta open-source que suporte visualização dos dados através de dashboards.
Resumo:
A indústria de componentes para automóveis necessita de constante inovação, no sentido de manter a elevada competitividade, imprescindível à sobrevivência de qualquer empresa neste sector. A automação e robótica são vias incontornáveis para a prossecução dos objetivos de produtividade desejados. Mesmo dentro da automação, a evolução é constante. Para além disso, a crescente inovação nos produtos fabricados, exige também novas soluções em termos de processos de fabrico. Isto leva a que, soluções válidas até uma determinada altura, passem facilmente a obsoletas, com necessidade premente de se implementarem novos sistemas que correspondam às necessidades atuais. Este trabalho teve por base uma necessidade detetada numa empresa fabricante de acessórios para a indústria automóvel: estruturas para estofo de assento automóvel, entre muitos outros. Atualmente, a estrutura do estofo automóvel assenta numa grelha constituída por um conjunto de arames, que é agregado por uma série de tiras de plástico injetadas em seu redor. As máquinas de injeção responsáveis por este processo têm superfície de apartação horizontal, e necessitam de mão-de-obra adjacente para a colocação dos arames no molde e descarga do conjunto, na razão de uma pessoa para duas máquinas, dependendo do tempo de ciclo da injeção. O trabalho consistiu no desenvolvimento de um sistema automático de alimentação e descarga da máquina de injeção, que tivesse por base um sistema já existente, mas que passasse a comportar outras funções até agora não desempenhadas pelos sistemas antigos, ou seja, que fossem capazes de ultrapassar os problemas colocados pela complexidade atual dos produtos em fabricação. O projeto foi concluído com sucesso, tendo sido validado pela empresa FicoCables, através da construção, teste e colocação em funcionamento de vários protótipos.
Resumo:
Este estudo foi desenvolvido em contexto empresarial e apresenta o levantamento de uma oportunidade de melhoria conjunta nos processos de gestão de stocks, compras e logística com o objetivo de otimizar a seleção e envio dos artigos com necessidade de reposição. O caso de estudo apresentado neste documento retrata o circuito logístico entre uma empresa sediada em Angola e outra em Portugal. A primeira dedica-se à venda por grosso e a retalho que é fornecida pela segunda, onde também está concentrada a gestão de aprovisionamento. Integrando uma sociedade menos desenvolvida como Angola, a delicadeza e complexidade dos problemas associam-se à incerteza, tornando um ambiente propício para a identificação e implantação de melhorias nos processos de decisão, colmatando a dependência de apoio em sistemas e serviços externos. Com uma logística de abastecimento intercontinental, a seleção e envio de mercadoria é uma preocupação dos gestores, uma vez que o tempo de fornecimento é longo e poderá afetar a performance das vendas caso seja uma decisão não sustentada. Com o foco no apoio à decisão, desenvolveu-se uma ferramenta que incorpora os detalhes da atividade empresarial que permite selecionar os artigos para reposição, maximizando o seu potencial valor de vendas.
Resumo:
Os modelos a ser analisados pelo Método de Elementos Finitos são cada vez mais complexos e, nos tempos que correm, seria impensável realizar tais análises sem um apoio computorizado. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura. Sob o pretexto de permitir a qualquer utilizador uma análise de estruturas simples com o Método dos Elementos Finitos, surge esta tese, onde se irá criar de raiz um programa com interface gráfica no ambiente MATLAB® para análise de estruturas simples com dois tipos de elemento finito, triangular de deformação constante e quadrangular de deformação linear. O software desenvolvido, verificado por comparação com um software comercial dedicado para o efeito, efetua malhagem com elementos bidimensionais triangulares e quadriláteros e resolve modelos arbitrados pelo Método de Elementos Finitos, representando estes resultados visualmente e em formato tabular.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Na perspetiva da melhoria da eficiência energética e da QAI dos edifícios de serviços existentes e que são climatizados com sistemas centralizados do tipo tudo-ar, foi desenvolvida uma aplicação informática que permite simular o comportamento dinâmico de situações reais de funcionamento relativas ao tratamento de ar. Com vista à redução do consumo energético associado à utilização dos sistemas técnicos de climatização, foi desenvolvido um modelo matemático para os diversos processos físicos que ocorrem numa unidade de tratamento de ar, implementado numa aplicação informática e validado o seu funcionamento através de experiências laboratoriais desenvolvidas numa sala de testes de climatização. O presente estudo permitiu determinar a influência das variáveis, clima e caudal de ar insuflado variável em função da demanda, no consumo energético associado às condições de conforto do ambiente interior para a estação de aquecimento. Foi estimado um aumento de 65% de consumo energético para o clima mais rigoroso de Bragança, acompanhado de um menor potencial de redução de consumo energético (6% em termos médios), relativamente aos outros climas. Relativamente à utilização de estratégias de ventilação controlada pela demanda (DCV), estimaram-se que os potenciais de redução de consumo energético máximos poderão atingir valores de 40% e 39% para Faro e Porto, respetivamente, e de 30% para Bragança. A ferramenta informática desenvolvida poderá ser uma ajuda em análises económicas a efetuar, nomeadamente para renovações de edifícios de serviços existentes.