22 resultados para Validação do método
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Resumo não disponível.
Resumo:
Peumus boldus Molina (Monimiaceae) é uma árvore comum e abundante no Chile, e suas folhas são amplamente empregadas pela medicina tradicional para o tratamento de uma variedade de afecções do sistema digestivo e hepatobiliar. Seus principais constituintes químicos são alcalóides do tipo aporfínicos, sendo a boldina seu maior e mais característico representante, cujas propriedades antioxidantes são extensivamente relatadas na literatura, servindo desta forma como marcador químico para a espécie. Com o objetivo de contribuir com parâmetros de controle de qualidade, um estudo botânico macro e microscópico das folhas e do pó da espécie foi realizado. Características morfológicas, identificadas pela análise macroscópica, como pilosidade, tipologia dos tricomas, proeminência ao redor da base dos tricomas e aparência do bordo, e características microscópicas como estômatos anomocíticos, folha hipoestomática e ocorrência de cristais de oxalato de cálcio denotam valor taxonômico. Parâmetros farmacopéicos como cinzas totais e perda por dessecação foram determinados, e um método de quantificação da boldina foi desenvolvido e validado utilizando a CLAE. O limite mínimo de boldina observado na análise de 10 amostras adquiridas foi de aproximadamente 0,016%. A fim de avaliarse o comportamento de seus constituintes químicos frente a variações de temperatura e umidade, realizou-se estudo de estabilidade acelerada (40ºC ± 2ºC / 75% ± 5% U.R.). A degradação máxima de boldina foi observada após 90 dias em câmara climática chegando a aproximadamente 52%. A reação de degradação sugerida foi de segunda ordem, e o tempo de vida útil e meia-vida calculados foram de aproximadamente 18 dias e 165 dias, respectivamente. Por fim, realizou-se a quantificação de alguns metais pesados nas folhas da espécie, que decresceram na ordem de Fe> Mn> Cu> Ni, sendo que Pb, Cr e Co tiveram níveis abaixo do limite de detecção de 5 μg/g.
Resumo:
Por possuir características diferenciadas na sua forma de gestão, poucos trabalhos da área administrativa são desenvolvidos visando à aplicação de técnicas gerenciais no setor primário. Esta pesquisa busca a validação do Método de Controle de Custos Baseado em Atividades - ABC - (Activity-based-costing) para a realidade da produção agrícola. Nesta dissertação, buscou-se elaborar um formato de implantação do ABC que possibilite sua aplicação em outras etapas do processo de produção de rosas. Através do estudo da realidade do processo produtivo de uma propriedade rural onde são produzidas rosas de corte, foi aplicado o método do ABC. Foram levantados todos os custos envolvidos na produção de rosas, calculados os consumos de energia elétrica de cada equipamento e apropriados às devidas atividades da maneira mais precisa possível. Desta forma, foi possível identificar quais atividades estão gerando mais custos. Este trabalho não contempla questões de interpretação das informações geradas pelo ABC.
Resumo:
Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.
Resumo:
O presente trabalho trata da validação de uma metodologia de análise para a determinação de dibenzo-p-dioxinas policloradas (PCDDs) em cinzas obtidas através de um processo de incineração de aparas de couro wet-blue. As dioxinas, compostos de extrema toxicidade, podem ser formadas na superfície das partículas de cinzas em reações de combustão. O mecanismo de formação de PCDDs requer uma atmosfera rica em oxigênio, uma fonte de cloro e a presença na cinza de um metal capaz de catalizar uma reação Deacon. O couro wet-blue apresenta em sua composição os precursores para a formação de dioxinas tais como o cloro e o metal catalisador sódio, cuja presença destes elementos foi comprovada por análises de superfície realizadas no couro e nas cinzas usando as técnicas de Rutherford Back-scattering Spectrometry (RBS) e Microscopia Eletrônica de Varredura (MEV). Desta forma, torna-se necessária a análise de dioxinas em cinzas de couro para especificar seu tratamento e destino final. As cinzas de couro foram obtidas numa unidade de bancada de incineração com reator de leito fixo, processo conhecido como GCC (Gaseificação e Combustão Combinadas). A metodologia utilizada para analisar dioxinas nas cinzas de couro foi baseada no Método 8280B da Agência de Proteção Ambiental dos Estados Unidos da América (EPA-USA). Este método descreve os procedimentos de extração de matrizes específicas, o clean-up para os analitos específicos e a determinação de dioxinas através das técnicas de cromatografia gasosa de alta resolução e espectrometria de massa de baixa resolução. O sucesso da análise depende da preparação dos extratos das amostras, etapa conhecida como clean-up, a qual é descrita minuciosamente neste trabalho, incluindo a montagem das colunas cromatográficas. A eficiência de extração das dioxinas foi obtida com os resultados comparativos das análises entre matrizes contaminadas com solução padrão de dioxinas e o padrão analítico. A validação deste método para análise de dioxinas policloradas em cinzas de couro wet-blue foi considerada satisfatória para os objetivos do trabalho, uma vez que a eficiência de extração de dioxinas obtida ficou dentro dos critérios estabelecidos pelo método.
Resumo:
A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura, utilizando ferramentas de controle da qualidade. A metodologia proposta, chamada de “Estabilização de Processos”, propõe-se a garantir a previsibilidade dos resultados dos processos operacionais através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. O método de trabalho utilizado envolveu as etapas de revisão da literatura existente sobre o assunto, apresenta as etapas do modelo conceitual proposto e as ferramentas de engenharia da qualidade eficientes no cumprimento destas etapas. Por fim, é apresentado e discutido um estudo de caso em uma indústria de pisos e blocos de concreto, que contribuiu para a validação do método proposto.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.
Resumo:
Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.
Resumo:
A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.
Resumo:
A prolactina(PRL) humana circula em múltiplas formas de diferentes tamanhos moleculares, das quais três são detectadas na cromatografia por filtração em gel(CFG): Little ou monomérica(mPRL), Big( bPRL) e Big-Big ou macroprolactina( bbPRL ou macroPRL). Em pessoas normais, a principal forma é a mPRL(85 a 90% do total) com uma pequena proporção de macroPRL. Em algumas pessoas, porém, ocorre uma maior quantidade de macroPRL, um fenômeno denominado Macroprolactinemia, que se sabe estar presente entre 10-25% dos soros hiperprolactinêmicos. É importante a sua identificação para evitar investigação e tratamento desnecessário. O método padrão para sua detecção é a cromatografia por filtração em gel( CFG); porém, a precipitação com polietilenoglicol( PEG) é um método de triagem simples, confiável e de baixo custo. Os testes com PEG originais foram feitos com o ensaio imunofluorimétrico( IFMA) Delfia para PRL. Objetivo: Validar um teste sensível e específico para a triagem de macroPRL baseado no ensaio de PRL quimioluminescente Immulite DPC. Resultados e métodos: Analisamos amostras séricas de 142 pessoas de ambos sexos. Baseado nessas amostras de rotina, dosamos a PRL seguida da precipitação com PEG e cálculo da recuperação de PRL( %R de PRL). Destes soros, 88 foram submetidos a cromatografia com filtração em Gel. Foi definido um ponto-de-corte para a presença de macroPRL, baseado numa curva ROC, ao comparar-se os resultados do teste de precipitação com PEG e os da CFG. O ponto-de-corte foi definido em 60%, com o achado de um teste com sensibilidade de 88,9% e especificidade de 98,6%. Correlacionou-se a dosagem de mPRL com a presença de macroPRL na cromatografia. Conclusão: Validamos um teste de triagem para macroPRL baseado no ensaio quimioluminescente DPC Immulite com sensibilidade de 88,9% e especificidade de 98,6 % para a porcentagem de recuperação PRL de 60%. O achado de uma valor de mPRL menor ou igual a 20 depois da precipitação com PEG vai suportar este diagnóstico. A prevalência( 20,4%) de macroPRL encontrada em nosso estudo, utilizando a metodologia proposta, é semelhante à encontrada na literatura.