143 resultados para Controle de processo - Métodos estatísticos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo estudar a composição química das flores de Hibiscus tiliaceus L usando diferentes técnicas de extração. Os métodos de extração usados foram maceração, Soxhlet, ultra-som, extração com fluido supercrítico e extração com líquido pressurizado. Foram investigadas as variáveis que podem influenciar no processo de extração tais como temperatura, pressão, polaridade do solvente, tempo de extração e massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada com detector de espectrometria de massas. Os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com algumas diferenças qualitativas. Quantitativamente, os compostos majoritários, em todas as técnicas de extração usadas, foram ácidos carboxílicos (C16 e C18), hidrocarbonetos com número ímpar de carbonos (C27, C29 e C31) e fitosteróis. Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado apresentou maior rendimento em massa de extrato e maior concentração de alguns dos compostos presentes nas flores de Hibiscus tiliaceus L., com as vantagens de redução de solventes e do tempo de extração. A variável que se mostrou mais importante nos procedimentos de extração foi a polaridade do solvente. A composição química das flores Hibiscus tiliaceus L apresentou além dos compostos citados, álcoois, aldeídos e vitamina E. A determinação do potencial antioxidante da planta, utilizando o método por quimiluminescência, permitiu encontrar valores para TAR e TRAP superiores ao trolox, utilizado como padrão, indicando a presença de antioxidantes nos extratos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação aborda a redução da variabilidade e a reduçaõ de perdas da má qualidade em um processo de corrugação de chapas de corpo de silos de grãos, através da utilização de Controle Estatístico do Processo (CEP). Foram analisadas e monitoradas as principais características e variáveis que influenciam o processo produtivo. Também foi proposto o uso de um item de controle igualmente chamado indicador de desempenho para permitir acompanhamento das perdas da má qualidade no mesmo processo, no Departamento de Produção, Setor Estamparia, da empresa GSI Group - Agromarau Indústria e Comércio Ltda. A dissertação apresenta uma revisão da literatura abordando assunto qualidade, custos da qualidade, indicadores de desempenho e Controle Estatístico do Processo. As ações de, monitoramento do processo, evolução de sistemas de inspeção de produto para sistemas de aprendizagem com o processo, medição das perdas da qulaidade, ação imediata sobre causas especiais e treinamento de operadores, analistas da qualidade e chefias, proporcionaram a redução da variabilidade e a redução das perdas da má qulaidade, através da implantação do CEP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A demanda por aplicações de workflow tem crescido rapidamente. Por um lado há uma evolução em ambientes com plataformas de sistemas maduras e disseminadas, por outro, processos de redesenho administrativo têm contribuído no aumento desta demanda. Apesar disto, profissionais de TI ainda encontram alguns problemas, e por isto, têm se aproximado de workflow com receio. Na administração pública de Porto Alegre, a otimização dos processos organizacionais de atendimento às demandas individuais dos cidadãos - que geram um registro em papel que constitui o que se denomina processo administrativo ou expediente, ou seja, um volume físico de papéis tramitando manualmente pelas estruturas que atuam no atendimento da demanda - redundou no emprego de ferramentas de automação para introduzir maior produtividade e eficiência na mudança dos métodos de trabalho. Mas alguns problemas se destacaram quando foi iniciado o desenvolvimento de aplicações de automação de processos. Uma face deles se mostrou em problemas conceituais que vão desde a confusão entre workflow e outras áreas, como BPR ou GED, à falta de domínio sobre as abstrações fundamentais na elicitação de workflow. Outra face se mostrou nos WMS, verdadeiros ambientes proprietários, fechados e pesados, de difícil utilização e pouco flexíveis para os desenvolvedores utilizarem em seu ambiente. Finalmente, outro problema foi a integração de aplicações de workflow com sistemas de informação, buscando informações e eventos em aplicações legadas, algumas existentes por décadas. Frente a isto, este trabalho aborda a produção de workflow sob a ótica dos desenvolvedores - analistas, projetistas e programadores - que necessitam criar aplicações corporativas em seus ambientes de Engenharia de Software. Neste cenário, a linha divisória entre a elaboração de uma aplicação de workflow e um sistema de informação se torna tênue, e compreender os aspectos envolvidos, dominá-los e utilizá-los neste ambiente é primordial para o sucesso e disseminação de aplicações de automação de processos. Este trabalho propõe uma extensão do Diagrama de Atividades da UML para modelar e elicitar o controle de atividades, a criação de um motor de workflow para executar a máquina de estados do Diagrama de Atividades, a ser utilizado como componente na arquitetura das aplicações. A utilização do motor de workflow e do Diagrama de Atividades estendido são apresentados num case de automação de um processo da Secretaria do Planejamento Municipal da Prefeitura Municipal de Porto Alegre que atende a solicitações diretas dos cidadãos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os cestódeos são agentes etiológicos de doenças parasíticas em humanos e em animais domesticados. Estamos utilizando Mesocestoides corti como um sistema modelo para estudar a biologia do desenvolvimento dos cestódeos, particularmente a transição da fase larval para a fase adulta segmentada. Com o propósito de isolar seqüências diferencialmente expressas durante o processo de segmentação, aplicamos a metodologia de análise das diferenças de representações de cDNA (cDNA RDA) utilizando RNA total extraído de larvas e vermes segmentados em cultivos in vitro de M. corti. Duas bibliotecas de cDNA subtraídas, enriquecidas com seqüências diferencialmente expressas das formas larvais ou segmentadas, foram construídas usando uma razão de driver:tester de 100:1 e 800:1 no 1º e 2º ciclos de subtração, respectivamente. A eficiência de subtração foi avaliada com experimentos de hibridização, utilizando as seqüências subtraídas como sondas contra os produtos de cDNA amplificados por PCR, com análise de macroarranjos e com confirmação individual, em experimentos de Northern virtual, de clones selecionados. Uma estratégia de RT-PCR em tempo real para confirmação dos resultados está sendo otimizada e resultados preliminares são apresentados. Após o seqüenciamento de 1036 clones de cDNA independentes e adoção de uma estratégia de seqüenciamento de alta qualidade, foram identificadas 190 seqüências, preferencialmente expressas em tetratirídeos (49) ou em vermes segmentados (141). Entre os genes identificados, 71 foram funcionalmente anotados, incluindo seqüências relacionadas a reguladores de estrutura de cromatina e controle de transcrição, cujos ortólogos estão implicados em processos de desenvolvimento em Drosophila e em vertebrados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação tem como objetivos o estudo da produção de uma liga metálica nanoestruturada através do processo de moagem de alta energia, determinar a evolução microestrutural desta liga metálica durante o seu processamento e sua utilização na forma de revestimento protetor, depositado por aspersão térmica HVOF. O material escolhido foi a superliga NiCrAlY devido a sua grande importância tecnológica e pela pequena quantidade de trabalhos publicados até o momento sobre a produção e o emprego desta liga na forma nanoestruturada. A superliga NiCrAlY foi processada através de um moinho de alta energia do tipo Szegvari, empregando-se esferas de aço AISI 52100 como meio de moagem, em 3 diferentes condições de agitação e 3 relações entre meio de moagem/material. O material processado foi caracterizado através de diferentes métodos de análise, segundo critérios como: i) morfologia, caracterizada através de microscopia eletrônica de varredura e granulometria por difração de laser, ii) tamanho de cristalito, através da análise do alargamento dos picos de difração de raios X pelo método single-line, iii) nível de contaminação por Fe, determinado através da análise por fluorescência de raios X. Revestimentos protetores foram depositados através do processo de aspersão térmica HVOF sobre substratos de aço inox AISI 304 para o estudo dos parâmetros de deposição e controle microestrutural dos revestimentos, com o objetivo de manter o tamanho de cristalito nanométrico das partículas após a deposição Os resultados mostram que o processo de moagem de alta energia provoca uma profunda alteração na morfologia das partículas, originando partículas achatadas e pequenos fragmentos, além de uma rápida redução do tamanho de cristalito, atingindo valores menores do que 20 nm nas primeiras horas de processamento. A microestrutura dos revestimentos depositados apresenta-se com um caráter lamelar acentuado, devido ao formato pré-aspersão das partículas, e uma microestrutura densa com uma quantidade relativamente grande de óxidos interlamelares. Também foi constatado que o processo de deposição dos revestimentos por aspersão térmica HVOF leva a um crescimento no tamanho dos cristalitos das partículas, mas é capaz de manter o tamanho dos cristalitos inferior a 100 nm após a deposição, levando a um revestimento com microdureza Vickers 35% superior com relação ao revestimento depositado com o material convencional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: O uso da pressão expiratória positiva na via aérea (EPAP) não é sugerido como técnica de desmame. O EPAP pode previnir o colapso das vias aéreas durante a expiração. Objetivo: O objetivo deste trabalho é verificar se a utilização da pressão expiratória positiva na via aérea (EPAP) apresenta benefícios na redução da hiperinsuflação dinâmica com redução do trabalho respiratório e melhora da oxigenação em pacientes submetidos ao processo de desmame da ventilação mecânica. Material e Métodos: Quarenta pacientes submetidos à ventilação mecânica por um período maior que 48 horas em 2 unidades de terapia intensiva foram avaliados prospectivamente em um estudo randomizado controlado cruzado. Todos os pacientes foram submetidos métodos de ventilação de pressão de suporte (PSV), tubo-t e EPAP, durante 30 minutos, com um período de descanso de 30 minutos entre cada método. Os pacientes foram monitorizados pelo VenTrack (Novametrix, EUA). As variáveis estudadas, mensuradas no minuto 1, 15 e 30, foram: PEEP intínseca (PEEPi), trabalho respiratório (WOBtotal), frequência respiratória (f), volume de ar corrente (Vt) e saturação periférica de oxigênio (SaO2). A amostra geral foi analisada e dividida em subgrupos DPOC (n= 14) e não-DPOC (n=26), traqueostomizados (n=15) e não-traqueostomizados (n=25). As comparações foram feitas pela Análise de Variância (ANOVA) e teste-t. O nível de significância foi de 95%. Resultados: PEEPi DPOC e não-DPOC minuto 1 (0,014 + 0,03 versus 0,17 + 0,38 cmH2O) e minuto 15 (0,042 + 0,13 versus 0,41 + 0,78 cmH2O) (p<0,05). No subgrupo não-traqueo, nos métodos de PSV15 (0,26 + 0,5 cm H2O) e EPAP15 (0,02 + 0,07 cm H2O), assim como PSV 30 (0,21 + 0,4 cm H2O) e EPAP 30 (0,02 + 0,1 cm H2O) (p<0,05). Para traqueo vs não-traqueo, no método EPAP minuto 1 (PEEPi traqueo 0,58 + 0,94 cm H2O; PEEPi não-traqueo 0,08 + 0,28 cmH2O) e minuto 15 (PEEPi traqueo 0,91 + 2,06 cm H2O; PEEPi não-traqueo 0,02 + 0,07 cmH2O) (p<0,05). Em relação ao WOBtotal houve um aumento significativo no método EPAP em relação ao tubo-t na análise geral da amostra (p<0,05). A f mostrou-se maior no método EPAP para o subgrupo não-DPOC e não-traqueo (minutos 1, 15 e 30). A SaO2 foi maior no subgrupo PSV quando comparada com tubo-t na análise geral da amostra, (p<0,05) Conclusões: A EPAP não demonstrou redução na PEEPi na análise geral da amostra, subgrupo DPOC, não-DPOC e traqueostomizados. Houve redução na PEEPi no grupo não-traqueostomizados. Houve aumento do WOBtotal com o uso da EPAP. Neste estudo a EPAP não demonstrou vantagens em relação aos outros métodos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estudar a transferência de calor em tubos capilares cilíndricos utilizados na técnica de separação de moléculas denominada Eletroforese Capilar. Esta técnica é usada, por exemplo, na análise de biomoléculas e no sequenciamento de DNA, onde o controle da temperatura está diretamente ligado ao desempenho destes métodos e à qualidade dos resultados. Para empregar esta técnica, tensões elétricas da ordem de 20 kV são aplicadas entre as extremidades dos tubos capilares, que possuem normalmente 50 cm de comprimento, 350 µm de diâmetro externo e 50 µm de diâmetro interno, preenchidos por uma solução aquosa. Tais tensões geram uma corrente elétrica na solução, provocando aquecimento distribuído por Efeito Joule. Os tubos capilares são construídos em quartzo amorfo e protegidos por uma camada de material polimérico (poliimida). Para implementar o controle da temperatura, os tubos capilares são colocados em contato com um fluido de resfriamento. Num primeiro momento, os estudos são realizados por simulação numérica, empregando o Método dos Volumes Finitos em rotinas escritas em FORTRAN. São simulados casos onde os tubos são recobertos por camadas cilíndricas de materiais com uma condutividade térmica relativamente boa, com o objetivo de aumentar a superfície de troca de calor com o fluido de resfriamento. Como resultado, obtêm-se curvas da temperatura no centro dos tubos capilares em função do coeficiente de transferência de calor por convecção. Um caso de interesse é quando os tubos capilares são posicionados excentricamente ao recobrimento cilíndrico Num segundo momento, é utilizado o software de simulação numérica ANSYS CFX®, onde é simulado o resfriamento dos mesmos tubos capilares expostos a um escoamento transversal de ar a 15°C. Neste caso, também são aplicados os recobrimentos cilíndricos e, além disso, opta-se por simular o resfriamento de um arranjo de vários tubos (sistema multicapilar) dispostos entre placas de vidro, no formato de um sanduíche. Como resultados mais importantes salientam-se: a) o aumento do raio do recobrimento resulta no aumento da transferência de calor, fazendo com que a temperatura no núcleo do capilar fique estacionada em valores baixos que não comprometem as separações/análises; b) chegou-se a um valor de raio crítico da ordem de 10 mm para a condição de operação mais típicas na área da Eletroforese Capilar; c) as montagens com o tubo capilar concêntrico e excêntrico ao recobrimento não apresentam diferenças significativas no perfil de temperatura da solução tampão; e finalmente d) observa-se que o uso de duas placas de material dielétrico com os capilares posicionados em forma de sanduíche entre elas permite uma eficiente dissipação do calor gerado na solução tampão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O experimento foi desenvolvido em uma área de pastagem nativa representativa da transição entre a Serra do Sudeste e a Depressão Central do RS. Foram testados os efeitos de diferentes métodos de controle de plantas indesejáveis e adubação, sobre a produção de forragem, dinâmica da vegetação e freqüência das espécies presentes na pastagem. Na primeira etapa avaliou-se o efeito inicial (até 60 dias após aplicação) dos tratamentos: T1 – sem controle (SC), T2 – controle mecânico (roçada de primavera, CMP) e T3 – controle químico (Picloram + 2,4-D, na dosagem de 5 L/ha, CQT), os quais foram arranjados num delineamento em blocos ao acaso, com quatro repetições. Aos 60 dias pós-aplicação dos tratamentos, a eficiência de controle das espécies indesejáveis em termos de participação na matéria seca foi de 100% para o CQ e 44,5% para o CMP quando comparados ao SC. Quando a eficiência foi calculada em termos de freqüência de ocorrência, verificou-se que o tratamento CM não foi eficiente no controle do alecrim no estrato inferior e de caraguatá no estrato superior, os quais aumentaram sua freqüência. Na segunda etapa, incluiu-se o tratamento de roçada de outono (CMO) e adubação ou não de cada tratamento e a avaliação estendeu-se por um ano. O delineamento continuou em blocos, com quatro tratamentos (SC, CMP, CMO e CQT) e as parcelas subdivididas em adubado e não adubado. O CQT proporcionou controle total das espécies indesejáveis, mas deprimiu inicialmente as leguminosas (principalmente Desmodium incanum), cuja participação na massa de forragem foi substituída por gramíneas. O CMO revelou-se mais eficiente que o CMP no controle de espécies indesejáveis apesar deste ter sido aplicado duas vezes. A adubação não afetou a resposta aos métodos de controle em nenhuma das variáveis analisadas, mas propiciou maior massa total e de gramíneas no outono, primavera e verão. As espécies indesejáveis não alteraram sua freqüência em função da adubação (em média 8,2%), mas Trifolium polymorphum foi favorecido, independente dos tratamentos de controle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A urbanização descontrolada das cidades brasileiras tem provocado o agravamento das enchentes naturais e a ampliação de sua freqüência, além de criar novos pontos de alagamento localizados. Isto se deve à crescente impermeabilização do solo com aumento do volume pluvial escoado e redução de amortecimento. A concepção de um projeto de macrodrenagem em uma bacia urbana que considere o controle das inundações, como por exemplo, a implementação de reservatórios de amortecimento em áreas sujeitas a alagamentos, constitui-se em uma tarefa complexa e difícil devido ao grande número de alternativas possíveis, considerando todas as variáveis envolvidas, como capacidades hidráulicas existentes e necessárias das redes de drenagem, disponibilidade de áreas para construção de reservatórios, custos de desapropriação destas áreas, existência de sistemas mistos de coleta, uso de reservatórios abertos ou subterrâneos, dentre outras. Desta forma o projetista coloca-se diante de um dilema: qual o conjunto destas alternativas podem ser o mais eficiente? Este estudo promoveu a análise da aplicabilidade e eficiência de um modelo de otimização associado a modelos hidrológico-hidráulicos como instrumentos de suporte à decisão em problemas de drenagem urbana. A ferramenta desenvolvida compôs-se pelo modelo IPHS1 para a simulação hidrológica e hidráulica, pelo algoritmo de evolução SCE-UA para o processo de otimização através da minimização do custo de implantação das soluções e do módulo EXTRAN do modelo SWMM para a verificação hidráulica dos resultados obtidos e análises de riscos superiores. Os resultados mostraram-se bons e o sistema implementado adaptou-se bem às características das duas bacias analisadas: bacia do arroio do Moinho e bacia do arroio da Areia. O sistema forneceu os cenários de custos otimizados de implantação da solução com detenções distribuídas nas bacias e ampliações de redes, em um curto período de tempo e utilizando dados que seriam necessários para qualquer projeto de macrodrenagem deste tipo. Com os resultados compilados, foram obtidas funções de auxílio à tomada de decisão em planos e projetos de drenagem urbana através de curvas ajustadas aos pontos gerados nas bacias estudadas. Foi realizada a análise de sensibilidade e a avaliação das incertezas envolvidas com o modelo hidrológico utilizado com relação ao seu parâmetro principal, o Curve Number. Esta análise mostrou grandes variações nas vazões de saída das bacias e nos custos das obras com pequenas alterações nos valores de CN. Apresenta-se ainda uma análise econômica da aplicação dos valores obtidos de forma extrapolada para todo o município de Porto Alegre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao conside-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O exame de sangue é um dos procedimentos de análises clínicos mais utilizados pelo largo espectro de anomalias que consegue detectar. A contagem de células de sangue, objeto deste trabalho, é um destes exames. A contagem manual é feita por um operador que examina ao microscópio, com ampliação adequada, uma amostra eventualmente tratada ou colorida. Ainda hoje há casos em que contagem manual é necessária mas é cada vez mais freqüente a utilização da contagem automática, feita através de citômetro de fluxo. Esta dissertação aborda um sistema de contagem de células do sangue por processamento digital de imagens e pode ser automático ou semi-automático. O projeto é fruto de uma parceria entre o LaPSIDELET e o HCPA. Deste projeto surgiu o SAIMO (Sistema de Aquisição de Imagens para uso em Microscopia Óptica). No estágio atual o SAIMO possui algumas limitações no controle de posicionamento e no campo de visão limitado. O controle de posicionamento atual fica a cargo do operador: não há informação sobre as imagens já adquiridas, podendo ocorrer sobreposição. Devido à limitação do campo de visão, várias aquisições devem ser feitas para se obter o número mínimo de células recomendado. Além disso, há um possível aumento de erro de contagem associado às imagens parciais de célula presentes nas bordas das imagens. Este trabalho tem como proposta solucionar o problema de controle de posicionamento das aquisições, com a localização da cena durante a captura da imagem. Além disso, é proposta uma técnica de composição de mosaico com as imagens adquiridas, reduzindo os problemas causados pelo campo de visão limitado. Também são propostos métodos de préprocessamento apropriados às imagens adquiridas, que proporcionam a redução do tempo das tarefas subseqüentes. O método de validação das localizações verifica se as coordenadas encontradas por este processo são consistentes. Os resultados obtidos mostraram que o método é rápido na localização e eficiente na composição do mosaico, podendo ser utilizado como parte de um sistema de contagem de células por processamento digital de imagens.