853 resultados para Atenuação de múltiplas. Deconvolução. Processamento sísmico
Resumo:
O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
Este estudo visa analisar a relação entre a produtividade e as condições de trabalho de funcionários em uma área de Processamento de Vegetais de uma Indústria de Refeições Coletivas. O trabalho foi desenvolvido em forma de estudo de caso, e a metodologia utilizada, neste estudo, caracterizou-se como uma pesquisa descritiva, cujos sujeitos da pesquisa foram funcionários da área específica. Para tanto, os instrumentos utilizados para uma avaliação integrada da área da ergonomia, produtividade e layaul, foram: relatórios gerados pelo Departamento Pessoal da empresa; observação direta e utilização de filmagens e fotografias das atividades realizadas; entrevistas, elaboração da matriz produto x processo e de fluxos de processos constando tomadas de tempo e distância e, por fim, análise dos dados e recomendações. Fizeram parte deste estudo 29 funcionários, com a faixa etária variando entre 19 e 49 anos. Constatou-se que o trabalho exige esforço físico, movimentos repetitivos por longos períodos, carregamento e levantamento de peso, postura em pé e deslocamentos durante a realização das atividades. Algumas tarefas foram classificadas como penosas, segundo a percepção dos próprios funcionários, fato que pode estar relacionado com o significativo número de atestados e afastamentos. Observou-se também que ocorrem cruzamentos entre as tarefas, assim como a formação de gargalos, conseqüentemente ocasionando problemas de fluxo. As recomendações envolvem questões pertinentes às condições organizacionais, visando um funcionamento mais satisfatório, através de rearranjos dos postos de trabalho e redução do fluxo. Estas recomendações possibilitariam uma melhor organização nos postos de trabalho, um maior controle de produção, através da separação segundo as características dos processos e, possivelmente na qualidade das condições de execução das tarefas.
Resumo:
This project intends to analyse quality management in Brazilian processing segment. The study was undertaken through the mailing of an extensive questionnaire to a convenience sample of large-, mid- and small-sized companies. The survey covers social-organizational, technical-technological and economical-competitive aspects of the firms. It has appraised the procedures used in quality management as well as the results achieved by firms on this respect. This research is part of a worldwide program on quality management, under the coordination of Prof. Gustavo Vargas from California State University at Fullerton.
Resumo:
A perda de material, na forma de sobras ou resíduos, no processamento das toras de madeira, além de ser uma variável muito importante para o gerenciamento da produção é responsável por uma parcela significativa dos impactos ambientais causados pela produção de madeira serrada. A quantificação e a identificação dos resíduos do processamento (desdobro) da madeira são componentes fundamentais para o estudo de suas possibilidades de aproveitamento como insumo de outros produtos. Tradicionalmente o aproveitamento dos resíduos ou sobras pelas serrarias tem sido utilizados em caldeiras para geração de vapor para a secagem da madeira processada e para produzir energia elétrica. Mas os resíduos e sobras, que são uma fonte de matéria-prima madeireira, também podem ser empregados para a produção de outros produtos, tais como: chapas e painéis. O presente trabalho consistiu de uma pesquisa realizada em serrarias das três principais regiões produtoras de madeira serrada do Rio Grande do Sul, as quais processam madeira de espécies de Eucalyptus spp. e Pinus spp. A pesquisa visou obter informações a respeito do processo produtivo de madeira serrada de florestas plantadas por serrarias e sua consequente geração de resíduos e sobras. Os resultados obtidos, além de estabelecerem um diagnóstico da produção de madeira serrada de florestas plantadas e da conseqüente geração de resíduos e sobras pelas serrarias no Rio Grande do Sul, revelam aspectos referentes ao atual destino e o aproveitamento potencial dos resíduos e sobras, neste caso para a produção de painéis ou chapas de madeira reconstituída Esta pesquisa e a análise dos dados coletados trazem, ainda, contribuições para o estabelecimento de formas e programas de redução na geração, qualificação e utilização de resíduos e sobras, como mecanismo de redução dos impactos ambientais negativos, através da substituição do processo da queima ou dispensa indevida na natureza, dando ênfase na sustentabilidade ambiental e econômica no uso do insumo madeira. O aproveitamento de sobras e resíduos serve, ainda, para agregar valor à madeira e para o emprego em produtos com base na madeira consumidos por setores industriais importantes, tal como a construção civil.
Resumo:
Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.
Resumo:
As administrações públicas contemporâneas vêm sofrendo diversas formas de pressão para que promovam a modernização de suas estruturas e serviços, provenientes não somente da própria sociedade, mas também derivadas das crises fiscais que assolaram diversos países nas últimas décadas. Uma das opções dos governos a fim de atender a essa demanda está no uso do potencial das tecnologias de informação e de comunicação em prol de melhores serviços ao cidadão e numa maior eficiência do aparato estatal. Esse movimento contemporâneo, associado principalmente ao advento da computação pessoal e da Internet, tem sido chamado Governo Eletrônico (e-Gov). Uma das suas ações relaciona-se à construção de serviços eletrônicos que integrem diversas agências governamentais em formato colaborativo. Entretanto, projetos de e-Gov que demandam esse grau de integração possuem complexidade de implementação aparentemente maior que projetos tradicionais, o que se reflete nos baixos índices de sucesso encontrados mundialmente. Existem hoje metodologias e frameworks de gestão de projetos disponíveis e consolidados no mercado, tal como o provido pelo Project Management Institute – PMI, por meio do Project Management Body of Knowledge – PMBOK, publicação que representa uma agregação dos conhecimentos dos mais de 230.000 profissionais associados ao PMI, principalmente nos aspectos conhecidos como “boas práticas”. Ele é aceito como um padrão de gestão de projetos pelo ANSI – American National Standards Institute e pelo Institute of Electrical and Electronics Engineers – IEEE (PMI, 2007). A questão que esta pesquisa procura explorar é a identificação das boas práticas na gestão de projetos de e-Gov multi-agências. Para isso, baseou-se no modelo proposto pelo PMBOK, considerado pela literatura como um framework abrangente e de grande reconhecimento (LEITE, 2004). A partir dessa análise, procurou-se identificar quais foram os fatores mais relevantes para o sucesso do projeto e como foram geridos pela equipe participante. Com esse intuito, essa pesquisa apresenta um estudo em profundidade do projeto Nota Fiscal Eletrônica – NF-e do Governo do Estado de São Paulo, projeto de e-Gov que possui integração nacional entre múltiplas agências (seis Administrações Tributárias Estaduais, Receita Federal e dezenove grandes empresas) e grande complexidade técnica e de gestão. Os resultados encontrados sugerem que o apoio da alta administração, a criação de um relacionamento de confiança, a participação de empresas no projeto, a alta capacidade das equipes envolvidas, a definição de um escopo viável e a utilização de padrões abertos são fatores que colaboram significativamente para o sucesso de projetos como a NF-e.
Resumo:
Efetua uma análise sobre a Amplitude dos Problemas de Comunicação Intraorganizacional entre a Estrutura de Processamento de Dados e o restante de uma Organização e determina suas possíveis causas, com base no Modelo de Empresa como um Sistema Sócio-Técnico Aberto. Para tal fim: consulta-se não só bibliografia tradicional norte-americana como também brasileira e japonesa; adota-se uma postura tanto quanto eclética e também menos ortodoxa, sem no entanto se ter a pretensão de polemizar.
Resumo:
O foco principal deste trabalho é analisar um recurso cada vez mais empregado pelas organizações em programas de desenvolvimento de lideranças, inclusive no Brasil: Feedback com Múltiplas Fontes - também conhecido por Avaliação 360 graus, Feedback 360 Graus, Avaliação Multivisão e outros nomes. Tratase de uma técnica na qual os participantes do programa recebem simultaneamente feedbacks estruturados de seus superiores,pares, subordinados e outros stakeholders