1000 resultados para método indicativo de estabilidade
Resumo:
Reinforcement Learning is an area of Machine Learning that deals with how an agent should take actions in an environment such as to maximize the notion of accumulated reward. This type of learning is inspired by the way humans learn and has led to the creation of various algorithms for reinforcement learning. These algorithms focus on the way in which an agent’s behaviour can be improved, assuming independence as to their surroundings. The current work studies the application of reinforcement learning methods to solve the inverted pendulum problem. The importance of the variability of the environment (factors that are external to the agent) on the execution of reinforcement learning agents is studied by using a model that seeks to obtain equilibrium (stability) through dynamism – a Cart-Pole system or inverted pendulum. We sought to improve the behaviour of the autonomous agents by changing the information passed to them, while maintaining the agent’s internal parameters constant (learning rate, discount factors, decay rate, etc.), instead of the classical approach of tuning the agent’s internal parameters. The influence of changes on the state set and the action set on an agent’s capability to solve the Cart-pole problem was studied. We have studied typical behaviour of reinforcement learning agents applied to the classic BOXES model and a new form of characterizing the environment was proposed using the notion of convergence towards a reference value. We demonstrate the gain in performance of this new method applied to a Q-Learning agent.
Resumo:
Neste trabalho é efectuado, não só o diagnóstico em regime permanente, mas também o estudo, simulação e análise do comportamento dinâmico da rede eléctrica da ilha de São Vicente em Cabo Verde. Os estudos de estabilidade transitória desempenham um importante papel, tanto no planeamento como na operação dos sistemas de potência. Tais estudos são realizados, em grande parte, através de simulação digital no domínio do tempo, utilizando integração numérica para resolver as equações não-lineares que modelam a dinâmica do sistema e dependem da existência de registos reais de perturbação (ex: osciloperturbografia). O objectivo do trabalho será também verificar a aplicabilidade dos requisitos técnicos que as unidades geradoras devem ter, no que concerne ao controlo de tensão, estabelecidos na futura regulamentação europeia desenvolvida pela ENTSO-E (European Network Transmission System Operator for Electricity). De entre os requisitos analisou-se a capacidade das máquinas existentes suportarem cavas de tensão decorrentes de curto-circuitos trifásicos simétricos, Fault Ride Through, no ponto de ligação à rede. Identificaram-se para o efeito os factores que influenciam a estabilidade desta rede, em regime perturbado nomeadamente: (i) duração do defeito, (ii) caracterização da carga, com e sem a presença do sistema de controlo de tensão (AVR) em unidades de geração síncronas. Na ausência de registos reais sobre o comportamento do sistema, conclui-se que este é sensível à elasticidade das cargas em particular do tipo potência constante, existindo risco de perda de estabilidade, neste caso, para defeitos superiores a 5ms sem AVR. A existência de AVR nesta rede afigura-se como indispensável para garantir estabilidade de tensão sendo contudo necessário proceder a uma correcta parametrização.
Resumo:
Este trabalho teve como objectivo o estudo de um sistema de levitação magnética com chumaceiras supercondutoras, para utilização numa fonte de alimentação de energia eléctrica ininterrupta, que usa um volante de inércia como sistema de armazenamento de energia. Partindo de um modelo comercial existente, foi modelizada a substituição do sistema de levitação por um sistema com chumaceiras supercondutoras. Foi feito o dimensionamento do magnete permanente e do supercondutor de forma a atingir-se a força de levitação magnética necessária para elevar o rotor da máquina, garantindo simultaneamente a máxima estabilidade do sistema. Os perfis de distribuição do campo magnético no volante de inércia foram modelizados recorrendo ao método dos elementos finitos, através da utilização do software Ansys. O cálculo da força de levitação foi efectuado recorrendo ao software MATHEMATICA.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Resumo:
INTRODUÇÃO: A presença de compostos de nitrogênio nos seus diferentes estados de oxidação é indicativo de contaminação do aquífero e de possíveis condições higiênico-sanitárias insatisfatórias. O nitrito e o nitrato estão associados a dois efeitos adversos à saúde: a indução à metemoglobinemia e a formação potencial de nitrosaminas e nitrosamidas carcinogênicas. Assim, foi verificada a contaminação das águas subterrâneas por compostos de nitrogênio, através da determinação de nitrogênio amoniacal, nitrogênio albuminóide, nitrito e nitrato, e avaliada a adequação da legislação vigente. MATERIAL E MÉTODO: Foram analisadas 607 amostras de águas de poços localizadas predominantemente na Região Metropolitana da Grande São Paulo, através de técnicas espectrofotométricas na região do visível. RESULTADOS: Os resultados analíticos foram avaliados com base nas legislações federal e estadual paulista. Das amostras analisadas, 91 (15%) apresentaram teores de pelo menos uma forma do nitrogênio em desacordo com a legislação estadual e 24 (4,0%) apresentaram teores de nitrato em desacordo com a legislação federal. CONCLUSÃO: Apenas o nitrato apresenta valor máximo permissível na legislação federal, enquanto que a estadual contempla os quatro compostos nitrogenados. Com base nos resultados da presença significativa desses derivados nas amostras analisadas, os quais comprometem a qualidade das águas e apresentam riscos potenciais à saúde humana, sugere-se a sua inclusão na legislação federal.
Resumo:
O principal objectivo desta tese é obter uma relação directa entre a composição dos gases liquefeitos de petróleo (GLP), propano, n-butano e isobutano, usados como aerossóis propulsores numa lata de poliuretano de um componente, com as propriedades das espumas produzidas por spray. As espumas obtidas, terão de ter como requisito principal, um bom desempenho a temperaturas baixas, -10ºC, sendo por isso designadas por espumas de Inverno. Uma espuma é considerada como tendo um bom desempenho se não apresentar a -10/-10ºC (temperatura lata/ spray) glass bubbles, base holes e cell collapse. As espumas deverão ainda ter densidades do spray no molde a +23/+23ºC abaixo dos 30 g/L, um rendimento superior a 30 L, boa estabilidade dimensional e um caudal de espuma a +5/+5ºC superior a 5 g/s. Os ensaios experimentais foram realizados a +23/+23ºC, +5/+5ºC e a -10/-10ºC. A cada temperatura, as espumas desenvolvidas, foram submetidas a testes que permitiram determinar a sua qualidade. Testes esses que incluem os designados por Quick Tests (QT): o spray no papel e no molde das espumas nas referidas temperaturas. As amostras do papel e no molde são especialmente analisadas, quanto, às glass bubbles, cell collapse, base holes, cell structur e, cutting shrinkage, para além de outras propriedades. Os QT também incluem a análise da densidade no molde (ODM) e o estudo do caudal de espumas. Além dos QT foram realizados os testes da estabilidade dimensional das espumas, testes físicos de compressão e adesão, testes de expansão das espumas após spray e do rendimento por lata de espuma. Em todos os ensaios foi utilizado um tubo adaptador colocado na válvula da lata como método de spray e ainda mantida constante a proporção das matérias-primas (excepto os gases, em estudo). As experiências iniciaram-se com o estudo de GLPs presentes no mercado de aerossóis. Estes resultaram que o GLP: propano/ n-butano/ isobutano: (30/ 0/ 70 w/w%), produz as melhores espumas de inverno a -10/-10ºC, reduzindo desta forma as glass bubbles, base holes e o cell collapse produzido pelos restantes GLP usados como aerossóis nas latas de poliuretano. Testes posteriores tiveram como objectivo estudar a influência directa de cada gás, propano, n-butano e isobutano nas espumas. Para tal, foram usadas duas referências do estudo com GLP comercializáveis, 7396 (30 /0 /70 w/w %) e 7442 (0/ 0/ 100 w/w %). Com estes resultados concluí-se que o n-butano produz más propriedades nas espumas a -10/- 10ºC, formando grandes quantidades de glass bubbles, base holes e cell collapse. Contudo, o uso de propano reduz essas glass bubbles, mas em contrapartida, forma cell collapse.Isobutano, porém diminui o cell collapse mas não as glass bubbles. Dos resultados experimentais podemos constatar que o caudal a +5/+5ºC e densidade das espumas a +23/+23ºC, são influenciados pela composição do GLP. O propano e n-butano aumentam o caudal de espuma das latas e a sua densidade, ao contrário com o que acontece com o isobutano. Todavia, pelos resultados obtidos, o isobutano proporciona os melhores rendimentos de espumas por lata. Podemos concluir que os GLPs que contivessem cerca de 30 w/w % de propano (bons caudais a +5/+5ºC e menos glass bubbles a -10/-10ºC), e cerca 70 w/w % de isobutano (bons rendimentos de espumas, bem como menos cell collapse a -10/-10ºC) produziam as melhores espumas. Também foram desenvolvidos testes sobre a influência da quantidade de gás GLP presente numa lata. A análise do volume de GLP usado, foi realizada com base na melhor espuma obtida nos estudos anteriores, 7396, com um GLP (30 / 0/ 70 w/w%), e foram feitas alterações ao seu volume gás GLP presente no pré-polímero. O estudo concluiu, que o aumento do volume pode diminuir a densidade das espumas, e o seu decréscimo, um aumento da densidade. Também indico u que um mau ajuste do volume poderá causar más propriedades nas espumas. A análise económica, concluiu que o custo das espumas com mais GLP nas suas formulações, reduz-se em cerca de 3%, a quando de um aumento do volume de GLP no pré-polímero de cerca de 8 %. Esta diminuição de custos deveu-se ao facto, de um aumento de volume de gás, implicar uma diminuição na quantidade das restantes matérias-primas, com custos superiores, já que o volume útil total da lata terá de ser sempre mantido nos 750 mL. Com o objectivo de melhorar a qualidade da espuma 7396 (30/0/70 w/w %) obtida nos ensaios anteriores adicionou-se à formulação 7396 o HFC-152a (1,1-di fluoroetano). Os resultados demonstram que se formam espumas com más propriedades, especialmente a -10/-10ºC, contudo proporcionou excelentes shaking rate da lata. Através de uma pequena análise de custos não é aconselhável o seu uso pelos resultados obtidos, não proporcionando um balanço custo/benefício favorável. As três melhores espumas obtidas de todos os estudos foram comparadas com uma espuma de inverno presente no mercado. 7396 e 7638 com um volume de 27 % no prépolímero e uma composição de GLP (30/ 0 / 70 w/w%) e (13,7/ 0/ 86,3 w/w%), respectivamente, e 7690, com 37 % de volume no pré-polímero e GLP (30/ 0 / 70 w/w%), apresentaram em geral melhores resultados, comparando com a espuma benchmark . Contudo, os seus shaking rate a -10/-10ºC, de cada espuma, apresentaram valores bastante inferiores à composição benchmarking.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.
Resumo:
INTRODUÇÃO: Como parte do programa de investigação sobre violência familiar e desnutrição severa na infância, especificamente um estudo do tipo caso-controle foi avaliada a confiabilidade dos instrumentos utilizados no processo de obtenção de dados. Estudou-se a confiabilidade de quatro componentes do instrumento principal: (a) as Escalas sobre Táticas de Conflitos (Conflicts Tactics Scales - CTS) que medem o grau de conflito/violência familiar; (b) o instrumento CAGE (Cut-down; Annoyed; Guilty & Eye-opener) usado para indicar suspeição de alcoolismo; (c) o NSDUQ (Non-student Drugs Use Questionnaire) que visa aferir o uso de drogas ilícitas; e (d) a medida antropométrica de comprimento. MÉTODO: Para os três primeiros componentes citados foram avaliadas a estabilidade (confiabilidade intra-observador ou teste-reteste) e a equivalência (confiabilidade inter-observador), usando-se os 50 primeiros sujeitos captados no estudo caso-controle de fundo. Para a análise, usou-se o índice Kappa (k) com ajustamento (pseudo-Bayes) para lidar com problemas de estimabilidade. Em relação ao componente "d", foi estudada somente a equivalência (n=73), usando-se o Coeficiente de Correlação Intraclasse (Intra-class Correlation Coefficient - ICC) como estimador. RESULTADOS: Todos os componentes mostraram estabilidade e equivalência aceitáveis. Quanto à estabilidade das CTS, CAGE e NSDUQ, as estimações de k foram em torno de 0,70, 0,78 e 0,85, respectivamente. Em relação à equivalência, encontrou-se os valores de 1,0 para as CTS e NSDUQ e 0,75 para CAGE. A equivalência estimada através do ICC para comprimento foi de 0,99. Algumas situações desviantes foram observadas. Os resultados apontam para uma adequada padronização dos observadores e refletem a boa qualidade do processo de aferição referente ao estudo de fundo, encorajando a equipe de pesquisa a prosseguir com maior segurança.
Resumo:
O presente trabalho, refere-se ao projecto de estabilidade, em betão armado e pré-esforçado, da Escola Superior de Enfermagem Artur Ravara, situada na zona da EXPO em Lisboa. O edifício apresenta-se com uma implantação em “L”, tendo como dimensões máximas 38,50m x 54,80m e desenvolve-se em altura por quatro pisos, dos quais, dois são enterrados. A estrutura do edifício em causa, apresenta duas juntas de dilatação, por forma a tornar desprezáveis os efeitos devidos à retracção e diminuição de temperatura, dividindo o edifício em três blocos. As suas fundações são indirectas, constituídas por estacas moldadas no terreno e respectivos maciços de encabeçamento. As lajes são fungiformes aligeiradas de moldes perdidos, de modo a permitir vencer maiores vãos, que variam entre os 6,60m e os 10,00m, e permitindo também maior rapidez de execução e maior economia. As consolas de 3,50m de vão, em laje maciça, são suportadas por vigas pré-esforçadas de secção variável. Para o cálculo automático da estrutura e da obtenção dos respectivos desenhos das armaduras, foi utilizado o programa de cálculo automático, Tricalc 7.1. O conteúdo do projecto em questão, sendo de carácter académico, não corresponde à versão real, à qual não se teve acesso. O dimensionamento das fundações, devido à fraca resistência dos solos e o dimensionamento da estrutura, devido à geometria e dimensões do edifício, permitiram enfrentar desafios interessantes. Tais desafios, deram possibilidade de enriquecer bastante os conhecimentos sobre a engenharia de estruturas.
Resumo:
Os reguladores de tensão LDO são utilizados intensivamente na actual indústria de electrónica, são uma parte essencial de um bloco de gestão de potência para um SoC. O aumento de produtos portáteis alimentados por baterias levou ao crescimento de soluções totalmente integradas, o que degrada o rendimento dos blocos analógicos que o constituem face às perturbações introduzidas na alimentação. Desta forma, surge a necessidade de procurar soluções cada vez mais optimizadas, impondo assim novas soluções, e/ou melhoramentos dos circuitos de gestão de potência, tendo como objectivo final o aumento do desempenho e da autonomia dos dispositivos electrónicos. Normalmente este tipo de reguladores tem a corrente de saída limitada, devido a problemas de estabilidade associados. Numa tentativa de evitar a instabilidade para as correntes de carga definidas e aumentar o PSRR do mesmo, é apresentado um método de implementação que tem como objectivo melhorar estas características, em que se pretende aumentar o rendimento e melhorar a resposta à variação da carga. No entanto, a técnica apresentada utiliza polarização adaptativa do estágio de potência, o que implica um aumento da corrente de consumo. O regulador LDO foi implementado na tecnologia CMOS UMC 0.18μm e ocupa uma área inferior a 0,2mm2. Os resultados da simulação mostram que o mesmo suporta uma transição de corrente 10μA para 100mA, com uma queda de tensão entre a tensão de alimentação e a tensão de saída inferior a 200mV. A estabilidade é assegurada para todas as correntes de carga. O tempo de estabelecimento é inferior a 6μs e as variações da tensão de saída relativamente a seu valor nominal são inferiores a 5mV. A corrente de consumo varia entre os 140μA até 200μA, o que permite atingir as especificações proposta para um PSRR de 40dB@10kHz.
Resumo:
O presente relatório de estágio tenta traduzir quatro meses de estágio académico realizado na construção da Torre Ocidente do Centro Comercial Colombo expondo quer o trabalho realizado, quer as matérias analisadas e estudadas ao longo deste período. Este estágio foi cumprido no âmbito do Trabalho Final de Mestrado do curso de Engenharia Civil, no Instituto Superior de Engenharia de Lisboa. A empreitada poder-se-á dividir em duas partes distintas: o reforço do núcleo central da estrutura ao nível dos pisos previamente erigidos, sendo os seus elementos constituintes em betão armado; e a estrutura dita elevada, na qual o núcleo central tem o seu desenvolvimento até à cobertura do edifício, enquanto a periferia é constituída por vigas e pilares metálicos, em conjunto com lajes colaborantes. É, na sua essência, uma estrutura mista. Dado que ocorreu um período de aproximadamente 15 anos entre a construção do Centro Comercial e as torres, existiu a oportunidade de complementar e ajustar o comportamento estrutural das torres, reforçando desta forma o embasamento das mesmas. Este reforço consistiu na construção de novos elementos verticais (paredes), devidamente ligadas ao ensoleiramento geral da estrutura conjunta e dispostas de forma a conferir maior capacidade resistente ao efeito da acção sísmica. Embora o início da construção do esqueleto da estrutura elevada estivesse prevista para estar incluído no período de estágio, isso não se verificou. Foi contudo, analisado durante o seu período, o método construtivo a ser usado (pouco usual em Portugal para a construção de edifícios) e o projecto de estabilidade da mesma, assim como alguns dos elementos que a constituem. Está incluído também neste relatório, a descrição de trabalhos análogos ao âmbito do Trabalho Final de Mestrado executado ao longo do período de estágio.
Resumo:
Nesta dissertação desenvolveu-se um programa de cálculo automático que efectua a análise estrutural de placas, sujeitas a acções estáticas e considerando um comportamento isotrópico elástico linear dos materiais. Este programa foi elaborado em linguagem Fortran. O método que se utilizou para o cálculo das estruturas é baseado na teoria dos elementos finitos, tendo sido adoptados elementos finitos com dois graus de liberdade por nó (duas translações), associados ao método dos deslocamentos para a sua resolução. Para permitir a representação dos resultados obtidos pelo programa, utilizou-se um módulo gráfico comercial: GiD. A validação do programa desenvolvido foi feita a partir da comparação dos resultados calculados de alguns exemplos com os obtidos através de um programa de cálculo estrutural de referência: SAP2000. Esta dissertação contempla ainda um manual, que tem como finalidade o fornecimento de indicações para a correcta utilização do software desenvolvido, o qual inclui orientações para a introdução de dados e respectiva interpretação de resultados.
Resumo:
O principal objectivo da presente dissertação foi o desenvolvimento de um programa de cálculo automático de estruturas reticulares planas. A execução deste trabalho insere-se num programa mais vasto e ambicioso, em que se pretende desenvolver um pacote de cálculo automático de estruturas para utilização académica. Este pacote incluirá o tipo de elementos mais utilizado na Engenharia Civil, podendo efectuar análises lineares e não-lineares, considerando acções estáticas e dinâmicas. Pretende-se também dotar este pacote com o dimensionamento e verificação da segurança dos elementos estruturais. O programa foi desenvolvido recorrendo ao Método dos Elementos Finitos. Em face da aplicação deste método é efectuada uma breve resenha histórica, incluindo o seu desenvolvimento, campos de aplicação e importância na Engenharia Civil para o cálculo de estruturas. Foram implementados elementos finitos do tipo barra 2D de secção constante, em que se admitiu um material isotrópico com comportamento elástico linear. O programa permite a aplicação de cargas estáticas nos nós e elementos de barra, assentamentos de apoio, e fornece os resultados de forma gráfica e numérica. A validação do programa de cálculo foi efectuada através da comparação dos resultados obtidos pelo programa com um outro Programa de cálculo estrutural comercial (SAP2000) e com valores apresentados na bibliografia [LNEC, 1984]. Com o objectivo de incluir este trabalho num pacote de programas mais abrangentes, foi elaborado um fluxograma onde são descritos os blocos principais que compõem o programa desenvolvido e um manual de utilização devidamente pormenorizado.
Resumo:
OBJETIVO: Propor alterações simplificadoras em plano de amostragem para estimar a densidade larvária de Aedes aegypti, partindo da avaliação de sua eficiência e simplicidade. MÉTODOS: Avaliou-se o plano de amostragem utilizado pela Superintendência de Controle de Endemias do Estado de São Paulo, para estimar a densidade larvária de Aedes aegypti pelo índice de Breteau, utilizando amostragem por conglomerados (quadras) em uma única etapa. Foram avaliadas 111 amostras obtidas em seis municípios da região de São José do Rio Preto, e pesquisadas, em média, 35 quadras e 14 edificações por quadra, num total de 510 edificações por amostra. RESULTADOS: As estimativas do índice de Breteau superiores a 3 apresentaram coeficientes de variação menores que 30% em 71% das amostras. O efeito do delineamento foi de 1,19 e de 1,79 para índices menores e maiores que 5, respectivamente. As estimativas foram obtidas em menos de três dias, envolvendo, em média, 5,5 homens na coleta de dados por dia. CONCLUSÕES: O plano de amostragem apresentou características de método simplificado: rapidez, economia e fácil operacionalização. Tais resultados se devem principalmente à utilização de conglomerados em uma única etapa, dispensando elaboração de listagem de endereços, sorteio e localização de edificações na segunda etapa. O efeito do delineamento indicou perda de precisão em níveis aceitáveis com a utilização de uma só etapa. A determinação do tamanho da amostra e a estimação dos erros amostrais das estimativas mereceram alterações simplificadoras.
Resumo:
Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.