999 resultados para Filtração em múltiplas etapas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação de mestrado tem por objetivo apresentar uma metodologia para planejamento e análise de experimentos com formulações, em um contexto de múltiplas variáveis de resposta, para aplicação em indústrias alimentícias de pequeno porte que se caracterizam por utilizar métodos empíricos, ou seja, tentativa e erro, no desenvolvimento de seus produtos. A utilização de Projeto de Experimentos com Formulações, como ferramenta estatística de suporte no desenvolvimento de produtos formulados, tem como objetivo otimizar o planejamento, execução e análise dos experimentos, permitindo que a seqüência de ensaios seja estruturada adequadamente, de forma a traduzir os objetivos a serem atingidos. A metodologia proposta neste trabalho apoia-se nessa ferramenta estatística e põe grande ênfase nas fases de identificação do problema e planejamento, fases nas quais a criatividade do investigador tem uma função muito importante. A metodologia proposta é ilustrada através de um estudo de caso. As etapas do estudo de caso envolvem: identificação do problema; planejamento do experimento; execução do experimento; seleção das melhores rodadas experimentais quanto a características de qualidade sensoriais através de uma análise sensorial comparativa com um produto similar líder de mercado (benchmarking); modelagem individual das variáveis de resposta e definição de uma função objetivo e otimização. A aplicação de Projetos de Experimentos fez-se através da utilização de variáveis independentes, tomando o método adaptável a situações onde há algum tipo de restrição. O desenvolvimento do produto, apresentado no estudo de caso, fez-se em um ambiente de Engenharia Simultânea, propiciado pelas características multifuncionais próprias das empresas em questão, reduzindo substancialmente o tempo de desenvolvimento do novo produto, por meio da realização das várias fases do projeto de forma simultânea.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A detecção de Salmonella sp. é fundamental nos programas de controle de salmonelose. Métodos de detecção mais eficientes permitem uma melhor determinação do nível de infecção dos rebanhos, um melhor entendimento da epidemiologia da infecção por Salmonella sp. e o desenvolvimento de programas de controle do patógeno, que visem a segurança biológica do alimento. Nos métodos convencionais, o enriquecimento seletivo é uma etapa crítica, pois inibe a microbiota competitiva e permite a multiplicação de Salmonella sp. Vários caldos de enriquecimento seletivo têm sido comparados quanto à eficiência na recuperação de Salmonella sp. a partir de alimentos, contudo existem poucos estudos relativos a fezes de suínos. O objetivo deste trabalho foi comparar caldos de enriquecimento seletivo para o isolamento de Salmonella sp. a partir de fezes de suínos. Numa primeira fase, amostras de fezes foram contaminadas artificialmente e os caldos Rappaport-Vassiliadis incubado a 42°C (RV), Tetrationato Müller-Kauffmann a 37°C (TMK37) e 42°C (TMK42), e Selenito Cistina (SC) a 37°C foram testados, em associação com meios sólidos seletivos: Rambach (RA), Xilose Lisina Tergitol 4 (XLT4), e Verde Brilhante Vermelho de Fenol Lactose Sacarose (VB). Na segunda fase os caldos RV, TMK37 e TMK42, semeados nos meios XLT4 e VB, foram testados com amostras naturalmente contaminadas. Na primeira fase o RV, TMK42 e TMK37 foram mais eficientes que o SC. No isolamento de Salmonella sp. em amostras naturalmente contaminadas os caldos TMK42 e RV foram superiores ao TMK37. O desempenho destes influenciou diretamente a capacidade seletiva e indicadora dos meios sólidos seletivos. No presente estudo, a associação TMK42/XLT4 demonstrou ser mais sensível, e a RV/XLT4 mais específica. O ágar VB também é recomendado para aumentar a probabilidade de detecção do patógeno. Desta forma os caldos RV e TMK42 e o ágar XLT4 e o VB foram considerados os mais indicados para a implantação de protocolos de detecção de Salmonella sp. em fezes suínas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O lodo de suinocultura e o resíduo de serraria podem constituir problema ambiental quando dispostos no ambiente. A possibilidade de 36 tratamento via filtração foi o objetivo deste estudo. Foram avaliados o potencial de remoção de carga poluidora do lodo de suinocultura por filtros orgânicos de serragem (Pinus sp.), bem como o impacto do descarte no solo do lodo antes e após a filtragem. Utilizou-se um Argissolo e um Latossolo para o estudo da contaminação após a disposição de lodo de suinocultura e filtrado. O solo foi disposto por camadas em vasos de PVC e mantidos em condições naturais. Seis granulometrias de serragem foram utilizadas para estabelecer as vazões de trabalho (20, 25, 30, 40 e 50 mm) e avaliar o efeito do tempo de detenção na performance dos filtros. O maior tempo de detenção correspondeu ao menor tamanho de partícula de serragem. As vazões intermediárias, correspondentes ao tamanho intermediário de material filtrante, em dois filtros sucessivos (30 e 50 mm) com filtração diária, apresentaram melhor performance de filtragem. A filtração do lodo de suinocultura possibilitou redução da demanda química de oxigênio em 85 %, de sólidos totais em 95 % e de sólidos sedimentáveis em 100 %. A retenção de lodo de suinocultura na serragem proporcionou o enriquecimento do resíduo orgânico em nutrientes, bem como diminuição da relação C:N para aproximadamente 20:1. A percolação através de ambos os solos, de lodo de suinocultura antes e após filtragem através de filtro de serragem, determinou uma diminuição significativa de coliformes totais e fecais no percolado, mas dependente da contaminação do material aplicado. Foi observado também que, quanto maior o período sem precipitação pluviométrica após aplicação dos lodos no solo, menor a presença de patogênicos no percolado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study aims to analyze the current systematics of Performance Appraisal used by the Brazilian Army, in a way that permits us to identify its characteristics that hinder it to fulfill the purposes and objectives to which it proposes. In order to do so, it is used the theoretical referential not only related to Performance Appraisal itself, but also that one that focus on the subjects related to it. In spite of the multiple forms Performance Appraisal can take, some internal characteristics and coherences must be observed so that the system can function correctly. Moreover, it can not be forgotten that, as a tool, the appraisal will be strongly influenced by the organizational culture where it is used. The organizational culture, in turn, does not find itself isolated from the society in which the organization operates. When all these characteristics are brought to the analyses of the system used by the Brazilian Army, several of problems emerges, including: the presence of objectives of antagonistic nature; the lack of linking with the organization strategy; the absence of mechanism to operate the objectives; appraisal used as a coercion tool, in the attempt to keep the domination system that begin to be contested; adoption of an appraisal method which strengthens the coercitive use of it and that does not propitiate a complete vision of the apprasee; the lack of steps on the appraisal process, including in the absence of parameters adoption for the appraisal, inserting great subjectivity into the system and supplying insufficient feedback to the appraisees; use of an instrument also of great subjectivity and reductionist; and a awarding system that, besides replying the distortions of the evaluation system, adds others.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As administrações públicas contemporâneas vêm sofrendo diversas formas de pressão para que promovam a modernização de suas estruturas e serviços, provenientes não somente da própria sociedade, mas também derivadas das crises fiscais que assolaram diversos países nas últimas décadas. Uma das opções dos governos a fim de atender a essa demanda está no uso do potencial das tecnologias de informação e de comunicação em prol de melhores serviços ao cidadão e numa maior eficiência do aparato estatal. Esse movimento contemporâneo, associado principalmente ao advento da computação pessoal e da Internet, tem sido chamado Governo Eletrônico (e-Gov). Uma das suas ações relaciona-se à construção de serviços eletrônicos que integrem diversas agências governamentais em formato colaborativo. Entretanto, projetos de e-Gov que demandam esse grau de integração possuem complexidade de implementação aparentemente maior que projetos tradicionais, o que se reflete nos baixos índices de sucesso encontrados mundialmente. Existem hoje metodologias e frameworks de gestão de projetos disponíveis e consolidados no mercado, tal como o provido pelo Project Management Institute – PMI, por meio do Project Management Body of Knowledge – PMBOK, publicação que representa uma agregação dos conhecimentos dos mais de 230.000 profissionais associados ao PMI, principalmente nos aspectos conhecidos como “boas práticas”. Ele é aceito como um padrão de gestão de projetos pelo ANSI – American National Standards Institute e pelo Institute of Electrical and Electronics Engineers – IEEE (PMI, 2007). A questão que esta pesquisa procura explorar é a identificação das boas práticas na gestão de projetos de e-Gov multi-agências. Para isso, baseou-se no modelo proposto pelo PMBOK, considerado pela literatura como um framework abrangente e de grande reconhecimento (LEITE, 2004). A partir dessa análise, procurou-se identificar quais foram os fatores mais relevantes para o sucesso do projeto e como foram geridos pela equipe participante. Com esse intuito, essa pesquisa apresenta um estudo em profundidade do projeto Nota Fiscal Eletrônica – NF-e do Governo do Estado de São Paulo, projeto de e-Gov que possui integração nacional entre múltiplas agências (seis Administrações Tributárias Estaduais, Receita Federal e dezenove grandes empresas) e grande complexidade técnica e de gestão. Os resultados encontrados sugerem que o apoio da alta administração, a criação de um relacionamento de confiança, a participação de empresas no projeto, a alta capacidade das equipes envolvidas, a definição de um escopo viável e a utilização de padrões abertos são fatores que colaboram significativamente para o sucesso de projetos como a NF-e.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O foco principal deste trabalho é analisar um recurso cada vez mais empregado pelas organizações em programas de desenvolvimento de lideranças, inclusive no Brasil: Feedback com Múltiplas Fontes - também conhecido por Avaliação 360 graus, Feedback 360 Graus, Avaliação Multivisão e outros nomes. Tratase de uma técnica na qual os participantes do programa recebem simultaneamente feedbacks estruturados de seus superiores,pares, subordinados e outros stakeholders

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A prolactina(PRL) humana circula em múltiplas formas de diferentes tamanhos moleculares, das quais três são detectadas na cromatografia por filtração em gel(CFG): Little ou monomérica(mPRL), Big( bPRL) e Big-Big ou macroprolactina( bbPRL ou macroPRL). Em pessoas normais, a principal forma é a mPRL(85 a 90% do total) com uma pequena proporção de macroPRL. Em algumas pessoas, porém, ocorre uma maior quantidade de macroPRL, um fenômeno denominado Macroprolactinemia, que se sabe estar presente entre 10-25% dos soros hiperprolactinêmicos. É importante a sua identificação para evitar investigação e tratamento desnecessário. O método padrão para sua detecção é a cromatografia por filtração em gel( CFG); porém, a precipitação com polietilenoglicol( PEG) é um método de triagem simples, confiável e de baixo custo. Os testes com PEG originais foram feitos com o ensaio imunofluorimétrico( IFMA) Delfia para PRL. Objetivo: Validar um teste sensível e específico para a triagem de macroPRL baseado no ensaio de PRL quimioluminescente Immulite DPC. Resultados e métodos: Analisamos amostras séricas de 142 pessoas de ambos sexos. Baseado nessas amostras de rotina, dosamos a PRL seguida da precipitação com PEG e cálculo da recuperação de PRL( %R de PRL). Destes soros, 88 foram submetidos a cromatografia com filtração em Gel. Foi definido um ponto-de-corte para a presença de macroPRL, baseado numa curva ROC, ao comparar-se os resultados do teste de precipitação com PEG e os da CFG. O ponto-de-corte foi definido em 60%, com o achado de um teste com sensibilidade de 88,9% e especificidade de 98,6%. Correlacionou-se a dosagem de mPRL com a presença de macroPRL na cromatografia. Conclusão: Validamos um teste de triagem para macroPRL baseado no ensaio quimioluminescente DPC Immulite com sensibilidade de 88,9% e especificidade de 98,6 % para a porcentagem de recuperação PRL de 60%. O achado de uma valor de mPRL menor ou igual a 20 depois da precipitação com PEG vai suportar este diagnóstico. A prevalência( 20,4%) de macroPRL encontrada em nosso estudo, utilizando a metodologia proposta, é semelhante à encontrada na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.