905 resultados para Esteróides fecais - Extração e dosagem
Resumo:
Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
INTRODUÇÃO: Queimaduras estão associadas a uma intensa atividade imunoinflamatória; contudo, um perfil seqüencial precoce dos níveis de TNF-α, seus receptores solúveis e endotelina (ET)-1 (um potente vasoconstritor) em pacientes queimados ainda não está claro. MÉTODOS: Foram estudados vinte pacientes com uma superfície corporal queimada (SCQ) ≥ 30% e com menos de 6h desde o acidente. Amostras de sangue foram retiradas no momento zero, 6, 12, 24h para seqüencialmente medir os níveis do TNF-α, seus receptores solúveis 1 e 2 (sTNFR1 e sTNFR2) e ET-1 usando ensaios ELISA. RESULTADOS: Idade, SCQ e lesão inalatória não foram significativamente diferentes entre sobreviventes (n=10; 30±13 anos, SCQ 40±12%) e não sobreviventes (n=11; 38±15 anos, SCQ 56±20%). Níveis do sTNFR1 estavam aumentados em não sobreviventes (2937±1676 pg/ml; 4548±1436 pg/ml) comparado aos sobreviventes (1313±561 pg/ml; 2561±804 pg/ml) nas 6 e 24h, respectivamente (P=0,01 e 0,002), enquanto níveis de sTNFR2 estavam significativamente aumentados em não sobreviventes (4617±1876 pg/ml vs 2611±1325 pg/ml) somente nas 6h (P=0,015). Níveis elevados de sTNFR1 nas 6h e TNF-α nas 12h mostraram valor preditivo positivo de 100% (para ambos marcadores) e valor preditivo negativo para mortalidade de 70 e 52%, respectivamente; risco relativo de 3,25 e 1.2, respectivamente; com intervalos de confiança de 1,4-7,3 e 1,28-3,52, respectivamente. CONCLUSÕES: Níveis aumentados de sTNFR1 e sTNFR2 foram maiores nas 6h em pacientes queimados não sobreviventes. Níveis de TNF-α e ET-1 foram similares em não sobreviventes e sobreviventes. Determinação muito precoce de sTNFR1 e sTNFR2 poderiam ajudar a identificar o risco de prognóstico adverso em pacientes grandes queimados.
Resumo:
No presente trabalho foram caracterizadas as frações de substâncias húmicas resultantes do processo de extração alcalina da turfa, utilizando hidróxido de potássio, tendo em vista sua utilização na composição de um fertilizante organo-mineral. As substâncias húmicas foram fracionadas em humina, substância húmica (humato e fulvato de potássio), ácido fúlvico, ácido húmico e ácido húmico purificado, não sendo possível realizar a purificação do ácido fúlvico. Foram avaliadas a presença e distribuição do potássio nestas frações, verificando-se que após a extração, 78% do potássio ficou agregado na fração substância húmica e 22% na fração humina. Após a separação da fração substância húmica em ácido húmico e ácido fúlvico observou-se que 7% e 93% do potássio, respectivamente, ficaram distribuídos nessas frações. Comparando-se a diferença de teores de potássio entre as frações de ácido húmico purificado e não purificado, e a quantidade de potássio encontrado na água da diálise verificou-se a eficiência da utilização do processo de diálise para a purificação das substâncias húmicas, bem como a adequabilidade da metodologia para a análise de potássio. Também foram determinadas nas frações a análise elementar; razão E4/E6, a qual confirmou a maior condensação aromática da fração ácido húmico; presença de grupos funcionais na estrutura das substâncias húmicas, verificado qualitativamente através de espectroscopia no infravermelho, e quantitativamente grupos carboxílicos, OH-fenólico e carbonila, responsáveis pela acidez dessas substâncias. Os resultados obtidos quanto à presença de grupos funcionais e razão E4/E6, confirmaram a existência do ácido húmico no extrato da turfa, porém ficou evidenciada ausência de ácido fúlvico ou sua presença em pequena quantidade no material extraído.
Resumo:
Resumo não disponível.
Resumo:
Uma das tecnologias que mais avançou nas últimas décadas, como uma alternativa para as tradicionais técnicas de extração de produtos naturais, é a técnica de Extração com Fluidos Supercríticos. A extração com fluidos supercríticos destacase entre os processos industriais de extração pela qualidade dos produtos obtidos e por não causar danos ambientais quando usa dióxido de carbono (CO2) no estado supercrítico como solvente. Este trabalho teve como objetivo a realização de experimentos de extração de óleos essenciais com dióxido de carbono no estado supercrítico de folhas de duas variedades da árvore Canforeira (Cinnamomum camphor Ness & Eberm.) conhecidas como Hon-sho e Ho-sho, a fim de determinar as melhores condições operacionais de processo. Os óleos essenciais obtidos destas plantas têm importância econômica devido aos seus principais componentes: linalol e cânfora. Os melhores parâmetros de extração obtidos, quando se consideram os rendimentos de óleo essencial, foram os seguintes: vazão de CO2 = 2 mL/min, temperatura = 50°C, pressão = 90 bar e diâmetro de partícula = 0,1 mm. Outro objetivo foi a obtenção das curvas de extração: Rendimento de óleo essencial versus Tempo de extração, adequando, a partir dos dados experimentais, alguns modelos matemáticos encontrados na literatura para descrever o comportamento destas extrações. Dos modelos estudados o que melhor se adequou à extração de óleos essenciais de folhas foi o modelo proposto por Reverchon (1996), o qual proporcionou uma boa reprodutibilidade dos dados experimentais, mostrandose eficiente na representação de extração com fluidos supercríticos de óleos essenciais de Hon-sho e Ho-sho a partir de suas folhas.
Resumo:
Este trabalho investigou o efeito da Angiotensina II central na redução das concentrações de prolactina em ratas lactantes em resposta ao estresse e a influência dos esteróides gonadais nesse mecanismo. Ratas Wistar lactantes foram divididas em 2 grupos: fêmeas no 7° e 20° dias de lactação. Os grupos do 7° dia foram divididos em 4 subgrupos cada: A) fêmeas que não sofreram microinjeção no ARC e sem estresse; B) fêmeas sem microinjeção no arqueado e submetidas ao estresse; C) fêmeas submetidas à microinjeção de losartan no arqueado e ao estresse; D) fêmeas submetidas à microinjeção de solução salina no arqueado e ao estresse. Os grupos do 20° dia foram divididos em 3 subgrupos cada: A) fêmeas que não sofreram microinjeção no arqueado e sem estresse; B) fêmeas sem microinjeção no arqueado e submetidas ao estresse; C) fêmeas submetidas à microinjeção de losartan no arqueado e ao estresse. As microinjeções de losartan (0,2 µl, 10-9 M) e salina (0,2 µl) foram realizadas 3 dias após a canulação do arqueado e 15 minutos antes do estresse (vapores de éter por 1 minuto); 5 minutos após o estresse, os animais foram decapitados, o sangue coletado e o plasma foi utilizado para dosagem por radioimunoensaio de prolactina, progesterona e estradiol. Os resultados foram analisados pelo teste de variância ANOVA de uma via, seguido pelo teste de Newman-Keuls. A diferença entre duas médias foi testada pelo teste t de Student, com p<0,05 adotado como critério de significância. Ocorreu uma redução significativa nas concentrações basais de prolactina e progesterona em fêmeas no 20° em comparação ao 7° dia de lactação, enquanto que as concentrações basais de estradiol permaneceram inalteradas. O estresse agudo induziu uma redução nas concentrações de PRL em fêmeas no 7° e 20° dias, que foi impedida pela microinjeção de losartan no arqueado no 7° dia pós-parto. No 20° dia, contudo, o losartan falhou em impedir essa queda. Esses resultados demonstram que a Angiotensina II central possui efeito modulador na queda da secreção de prolactina em resposta a estresse agudo em ratas lactantes no 7° dia pós-parto, cujas concentrações de prolactina são elevadas; entretanto, isso parece não ser observado em ratas lactantes no 20° dia, cujas concentrações de prolactina e progesterona já estão significantemente reduzidas, indicando que esse efeito é dependente de progesterona e das concentrações de prolactina pré-estresse.
Resumo:
Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.
Resumo:
O crescimento desordenado da população e a expansão mal planejada das cidades, tem levado a precariedade das condições de saneamento e abastecimento hídrico, tornando a água um importante meio de desenvolvimento e transporte de microrganismos, muitos destes patogênicos. Desta maneira, torna-se necessário além da busca de soluções, o monitoramento eficiente e constante dos níveis e focos de contaminação. O presente trabalho teve como objetivo principal diferenciar ambientes aquáticos poluídos de não poluídos por contaminação de origem fecal, através de padrões moleculares. Para tanto foram escolhidos os arroios Feijó e Carvão, localizados na região metropolitana de Porto Alegre, Rio Grande do Sul, de onde foram coletadas amostras de água no verão e no inverno de 2001, submetidas a determinação do número mais provável (NMP) de coliformes totais e fecais, através da fermentação em tubos múltiplos. No Arroio Feijó foram observados índices de coliformes fecais superiores ao arroio Carvão, portanto o primeiro foi considerado modelo de ambiente aquático poluído e o segundo, não poluído. Seguiu-se a extração do DNA total das amostras brutas, amplificação do rDNA 16S pela PCR e clivagem destes com as enzimas de restrição Rsa I, Taq I e Alu I. Os padrões de clivagens observados com Rsa I sugerem a discriminação destes ambientes, uma variação sazonal foi observada entre as amostras de verão e inverno. O método mostrou-se sensível para uma análise comparativa entre estruturas de comunidades bacterianas em ambientes aquáticos.
Resumo:
O concreto auto-adensável (CAA) vem sendo descrito por muitos pesquisadores como uma grande revolução ocorrida na tecnologia do concreto. Sua utilização, apesar de estar aumentando consideravelmente, ainda é pequena, se forem analisadas todas as vantagens que este material permite obter. Um dos motivos para esta sub-utilização é a falta de métodos de dosagem experimental, que permite a determinação da proporção exata dos materiais, de forma econômica e racional. Neste trabalho foi proposto um método de dosagem para concretos auto-adensáveis, com materiais locais e econômicos. Para comprovar a eficiência do método de dosagem proposto, foram realizados CAA com materiais finos distintos, dois pozolânicos (metacaulim e cinza de casca de arroz) e um não pozolânico (fíler calcáreo), primeiramente com, e, após, sem aditivo modificador de viscosidade (VMA). Observou-se que os CAA com cinza de casca de arroz foram os mais viáveis economicamente. Também observou-se que a utilização do VMA não interfere no custo dos concretos, porém reduz a relação água/aglomerante, permitindo, assim, a possibilidade de redução de consumo de aglomerantes, para uma mesma faixa de resistência à compressão. Após este estudo experimental, observou-se que é possível dosar CAA através do método proposto, de forma que o custo deste, para uma mesma faixa de resistência à compressão, seja próximo ou até inferior ao do concreto convencional.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.