38 resultados para Controle de processos - Métodos estatísticos
Resumo:
Este artigo discute conceitos relevantes à perspectiva do curso de vida, porém pouco difundidos no Brasil: controle primário e controle secundário. O primeiro se refere aos esforços que o indivíduo empreende para adaptar o ambiente às suas necessidades; o segundo, para se adaptar ao ambiente. Apresenta-se a formulação original dos conceitos como modelo de dois processos de controle, em oposição a modelos de processo único, como o do desamparo aprendido. Em seguida, discute-se revisão conceitual que trouxe modificação e ampliação para estes construtos, concebendo-os em um modelo bidimensional que articula controle primário e secundário com os conceitos de seleção e compensação. Nesse processo, apresentam-se contribuições no intuito de estimular a reflexão e expandir a discussão teórico-conceitual que envolve estes construtos.
Resumo:
Este trabalho descreve um sistema de análise de dados com a finalidade de gerar um sistema de controle utilizando técnica inteligente para adição de fluoreto de alumínio (AlF3) em fornos de redução de alumínio. O projeto baseia-se nos conceitos de lógica fuzzy, nos quais o conhecimento acumulado pelo especialista do processo é traduzido de maneira qualitativa em um conjunto de regras linguísticas do tipo SE
Resumo:
Este trabalho propõe uma estratégia fuzzy, do tipo Rede de Controladores Locais, aplicável à melhoria da estabilidade dinâmica em sistemas elétricos de potência, visando compensar possíveis perdas de sintonia devido à ocorrência de variações nas condições operacionais da planta. A adaptação dos ganhos do controlador fuzzy é efetuada on-line, interpolando-se os ganhos de um conjunto finito de controladores locais fixos. Ao ocorrer variações nas condições operacionais da planta, os ganhos da lei de controle são ajustados automaticamente de modo a manter satisfatório o desempenho do sistema de controle. O desempenho do controle foi avaliado através de estudos de simulação, utilizando-se um modelo dinâmico não-linear, do tipo máquina barra infinita. Os resultados mostram que o emprego da estratégia proposta permite obter melhorias no desempenho dinâmico do sistema.
Resumo:
O presente trabalho tem como objetivo o desenvolvimento de um sistema de aquisição de dados elétricos de cargas motrizes no processo industrial de sistema de rede automatizada baseado em instrumentação virtual, permitindo a monitoração e análise de distúrbios relacionados à Qualidade de Energia Elétrica (QEE) em regime permanente, como variação de tensão, distorção harmônica e desequilíbrio de tensão, onde os resultados possam ser visualizados em uma interface amigável e intuitiva ao usuário e armazenados de maneira conveniente em um banco de dados. Este sistema é uma solução viável por ter baixo custo na sua implementação e flexível para a monitoração e análise de parâmetros de QEE nos processos industriais quando comparada com a instrumentação tradicional.
Resumo:
A legislação ambiental cada vez mais rigorosa tem forçado as indústrias a investirem em soluções de controle inovadoras buscando diminuir as emissões de gases poluentes pelas fontes móveis e fixas, exercendo melhor controle e tratamento desses poluentes como forma de atender os limites impostos pela lei. Apresenta-se neste trabalho, a implementação de uma melhoria no sistema de controle de exaustão de fornos de cozimento de anodos da indústria de alumínio ALBRAS-Alumínio Brasileiro S.A., localizada em Barcarena no estado do Pará, visando minimizar a poluição causada pela queima de combustíveis nos fornos sem comprometer a eficiência do processo. Para isso foi utilizado um sistema baseado em lógica fuzzy, buscando na experiência de engenheiros, técnicos e operadores de processo, uma forma de se obter um melhor controle e confiabilidade na gestão das emissões de gases poluentes.
Resumo:
As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.
Resumo:
As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.
Resumo:
A seleção de métodos apropriados para a análise estatística pode parecer complexa, principalmente para estudantes de pós-graduação e pesquisadores no início da carreira científica. Por outro lado, a apresentação em PowerPoint é uma ferramenta comum para estudantes e pesquisadores. Assim, um tutorial de Bioestatística desenvolvido em uma apresentação em PowerPoint poderia estreitar a distância entre ortodontistas e a Bioestatística. Esse guia proporciona informações úteis e objetivas a respeito de vários métodos estatísticos empregando exemplos relacionados à Odontologia e, mais especificamente, à Ortodontia. Esse tutorial deve ser empregado, principalmente, para o usuário obter algumas respostas a questões comuns relacionadas ao teste mais apropriado para executar comparações entre grupos, examinar correlações e regressões ou analisar o erro do método. Também pode ser obtido auxílio para checar a distribuição dos dados (normal ou anormal) e a escolha do gráfico mais adequado para a apresentação dos resultados. Esse guia pode ainda ser de bastante utilidade para revisores de periódicos examinarem, de forma rápida, a adequabilidade do método estatístico apresentado em um artigo submetido à publicação.
Resumo:
Os limites interespecíficos da espécie politípica Deconychura longicauda (Dendrocolaptidae) foram investigados por uma análise conjunta, incluindo caracteres moleculares, morfológicos e vocais. Um total de 1.108 pares de bases de genes mitocondriais Cit b e ND2 foram usados para construir hipóteses filogenéticas, ao passo que os caracteres morfológicos e vocais foram analisados com métodos estatísticos univariado e multivariado. Todas as árvores filogenéticas recuperadas indicam altos níveis de diferenciação genética e estrutura filogeográfica em Deconychura longicauda, com o reconhecimento de quatro grupos principais bem apoiados, geograficamente constituídos por aves (1) do centro de endemismo Guiana no nordeste da América do Sul (2), da bacia amazônica excluindo o escudo das Guianas (3), do sopé oriental dos Andes, e (4), trans-Andinas da América do Sul e América Central. O nível de divergência genética entre estes clados varia de 6-8% (entre as aves Guianenses, não-Guianenses, do sopé dos Andes e trans-Andinas). Embora os caracteres morfológicos contribuam pouco para a diagnose em Deconychura, o canto, por outro lado, consistetemente os distinguem. Nós recomendamos com base, principalmente, em sua diagnose molecular e vocal o desdobramento de D. longicauda nas seguintes espécies filogenéticas e biológicas: Deconychura longicauda, D. pallida, D. zimmeri, D. connectens, D. typica e um táxon ainda não nomeado, endêmico do sopé oriental dos Andes.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
Utilizando-se dados do campo de Camorim (Bacia de Sergipe-Alagoas), foi testado e aplicado um conjunto de técnicas estatísticas multivariantes (análises de agrupamentos, de componentes principais e discriminante) no intuito de identificar as fácies, previamente definidas em poços testemunhados, por meio dos perfis, viabilizando o reconhecimento das mesmas nos demais poços não testemunhados da área. A segunda etapa do processo de determinação das fácies consistiu no emprego de métodos auxiliares (análises composicional e de seqüência de fácies), que, combinados com as técnicas multivariantes, propiciaram melhores resultados na calibração rocha-perfil. A determinação das fácies, uma vez estabelecida, possibilitou o refinamento do processo de avaliação de formações ao viabilizar o exame de cada fácies-reservatório, isoladamente. Assim, esse procedimento tornou possível a escolha, para cada litologia, dos parâmetros utilizados na interpretação dos perfis ao mesmo tempo em que permitiu a totalização em separado dos valores de espessura, porosidade e saturação dos fluidos, bem como a adoção de diferentes valores de corte (cut-offs) para cada grupo considerado. Outras aplicações incluíram a melhoria na estimativa da porosidade e da permeabilidade, a adaptação de algoritmos para o cálculo preliminar de porosidade, a confecção de mapas de fácies e a geração automática de seções estratigráficas. Finalmente, foram destacadas a perspectiva de integração desse estudo com sistemas estatísticos de descrição de reservatórios, outras técnicas de determinação de fácies em desenvolvimento e a retomada da utilização de métodos estatísticos multivariantes em dados de perfis, como ferramenta de exploração.
Resumo:
Este artigo propõe a adoção de um modelo numérico prognóstico para estimar a variável "tempo de execução" para empreendimentos públicos de forma objetiva. O trabalho de campo consistiu na aplicação de métodos estatísticos para analisar dados de obras licitadas e executadas durante o período de 2006 a 2009 na Universidade Federal do Pará (UFPA). A análise de dados envolveu cálculos de regressões lineares e transformadas das funções. Após estratificação e tratamento inicial dos dados, os elementos adotados para construção do modelo final se restringiram a 102 obras de um total de 225 originariamente pesquisadas, resultando nos seguintes parâmetros estatísticos: coeficiente de correlação (R) de 0,899; coeficiente de determinação (R2) de 0,808; coeficiente de determinação ajustado (R2 ajustado) de 0,796 e erro padrão (Se) de 0,41. Estes parâmetros indicam forte correlação linear entre as variáveis, indicando que 79,60% da variação do tempo para executar uma obra pública podem ser causadas pela variação, em conjunto, das variáveis área construída, custo orçado, capacidade técnica operacional do contratante, capacidade operacional da empresa, tipologia de serviço e estação do ano.
Resumo:
Alguns autores têm sugerido que regras podem gerar insensibilidade do comportamento às contingências de reforçamento programadas. Outros, no entanto, têm sugerido que essa insensibilidade tende a ocorrer, não devido a propriedades inerentes às regras, mas sim devido ao tipo de esquema de reforçamento usado nos estudos. Um problema, contudo, é que há evidências experimentais mostrando que o comportamento de seguir regras discrepantes das contingências programadas pode tanto ser mantido quanto interrompido, independentemente de o esquema de reforçamento ser intermitente ou contínuo. É possível que tais diferenças de resultados ocorram devido a diferenças nos métodos dos estudos que têm produzido tais resultados, mas isso ainda não está suficientemente esclarecido na literatura. O presente trabalho teve como objetivo reunir e comparar os principais estudos que investigaram o controle por regras em diferentes esquemas de reforçamento, com o fim de investigar se características específicas dos métodos usados em tais estudos podem ter contribuído, ou não, para a ocorrência de diferenças nos resultados. Para isso, foi adotado o seguinte procedimento: 1) seleção dos principais trabalhos experimentais da área que têm investigado o papel de diferentes tipos de esquemas de reforçamento na sensibilidade do seguimento de regras às contingências; 2) divisão dos textos em grupos de acordo com o método usado por cada grupo de pesquisa; 3) análise dos métodos e resultados dos estudos de um mesmo grupo e em comparação com os estudos de outros grupos; 4) discussão dos resultados com base nas explicações que os autores dão para seus resultados e em relação aos resultados de outros estudos não considerados pelos autores. Os principais resultados foram os seguintes: em todos os 5 grupos ocorreram desempenhos sensíveis e insensíveis entre os participantes, não dependendo pelo menos exclusivamente do tipo de esquema que estava sendo usado; em 3 dos 5 grupos houve uma persistência de resultados insensíveis entre os participantes, enquanto em 2 dos 5 grupos houve uma persistência de resultados sensíveis; as diferenças nos resultados de sensibilidade e insensibilidade em cada grupo parecem ter dependido de algumas variações nos métodos que foram usados e não apenas do tipo de esquema de reforçamento. Algumas dessas variações nos métodos não têm sido suficientemente estudadas na área e podem estar interferindo nos resultados. Alguns exemplos que foram discutidos seriam: o controle do conteúdo das instruções, a forma de distribuição de reforçadores, as características da seleção dos participantes e o nível de dificuldade das tarefas usadas. Estudos que tivessem como objetivo específico manipular essas variáveis com o fim de controlar melhor seus efeitos poderiam garantir uma melhor efetividade dos métodos usados para estudar o controle por regras. Essas novas investigações poderiam auxiliar no desenvolvimento de parâmetros mínimos de controle para a realização de novos estudos.
Resumo:
Face às dimensões continentais do país, as organizações situadas em regiões carentes de fornecedores de desenvolvimento de sistemas de software especializado estão distribuindo suas operações de Information Technology Outsourcing (ITO), para outras regiões. Como consequência, a redução de custos e a melhoria da contratação de serviços em Tecnologia da Informação (TI) têm sido os dois grandes focos da atualidade, incentivando à noção de parceiros múltiplos em operações recíprocas e engajados tanto em relacionamentos formais quanto informais como a terceirização. Os serviços terceirizados são diversificados e entre eles está o desenvolvimento e manutenção de software através de contratos, realizados por organizações situadas em regiões onde existe demanda de software com características específicas. Sabe-se que a terceirização de Software e Serviços Correlatos (S&SC), que inclui as atividades de contratação e gestão do processo de aquisição é uma tarefa complexa e necessária para as organizações, principalmente no que diz respeito às condições envolvidas na contratação. Nesses casos, o exercício da governança tem sido um importante instrumento para, com a terceirização de TI, promover a gestão adequada do risco e o retorno do investimento. Sendo assim, o processo de compra ou venda de um produto de software nesse ambiente é uma atividade que envolve um grande número de conceitos subjetivos, referentes principalmente a características dos produtos. Torna-se maior o desafio quando se trata de software de prateleira modificável (Modified Off-The-Shelf - MOTS) que sofrem modificações e adições de requisitos a cada novo cliente. Neste contexto, buscando adequar as exigências do mercado com as necessidades de métodos e diretrizes para melhoria dos processos de aquisição e fornecimento de software, este trabalho procura explorar as principais características acerca do contrato, do controle de qualidade, e os resultados dos relacionamentos adotados na implementação de projetos de terceirização desenvolvidos á distância. São apresentados os resultados obtidos de um estudo de caso conduzido em uma empresa pública de Medicina Transfusional situada no norte do Brasil que adotou este processo. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.
Resumo:
O 3º Consenso Brasileiro para pesquisa de autoanticorpos em Células HEp-2 (FAN) teve como propósito avaliar as dificuldades de implantação do 2º Consenso ocorrido no ano de 2002, discutir estratégias para controlar a qualidade do ensaio e promover a atualização das associações clínicas dos diversos padrões. MÉTODOS: Participaram do encontro em Goiânia nos dias 13 e 14 de abril de 2008 pesquisadores e especialistas de diversos centros universitários e laboratórios clínicos de diferentes regiões do Brasil, com o propósito de discutir e aprovar as recomendações que visam à melhor padronização, interpretação e utilização do ensaio pelos clínicos. Representantes comerciais de diferentes empresas produtoras de insumos para realização do teste de FAN foram convidados como ouvintes. RESULTADOS E CONCLUSÕES: O 3º Consenso enfatizou a necessidade do controle de qualidade em imunofluorescência dada a heterogeneidade de microscópios e reagentes disponíveis no mercado, promoveu adequações na terminologia utilizada para classificar os diferentes padrões e, finalmente, atualizou as associações clínicas com finalidade de facilitar cada vez mais o melhor uso do ensaio pelos clínicos.