942 resultados para Validação de Metodologia Analítica
Resumo:
Atualmente, a Contabilidade Analítica é referida como uma ferramenta de gestão no apoio à tomada de decisão. Este tipo de contabilidade prevê uma série de diferentes métodos de custeio e objetivos a atingir de acordo com o setor económico e com as necessidades de informação que se pretendem ver satisfeitas. O presente trabalho versa sobre um estudo científico que assenta em reconhecer que a Contabilidade Analítica é um importante suporte de informação para um adequado e eficiente Controlo Interno e deve ser objeto de elevada atenção e análise pela Auditoria. O estudo realizado teve como objetivos a Contabilidade Analítica, o Controlo Interno e a sua relação com a Auditoria, como contributo para formação de uma opinião credível e sustentada sobre a influência que pode assumir a informação fornecida pela Contabilidade Analítica e o controlo que isto proporciona à gestão. No estudo empírico seguimos a metodologia de abordagem de estudo de caso de Yin (1994) e chegamos à ideia geral de que a Contabilidade de Custos é fundamental para o processo de tomada de decisão.
Resumo:
Relatório de Estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Doutor Adalmiro Álvaro Malheiro de Castro Andrade Pereira
Resumo:
RESUMO: Nos últimos anos assistiu-se a um reposicionamento das pessoas portadoras de doença mental na sociedade, no sentido de viverem em pleno os seus direitos, sem restrições. Esta tendência acompanhou as transformações que se têm vivido na forma como os utentes dos serviços de saúde interagem com os mesmos e com os profissionais de saúde, de forma a permitir uma maior autonomização e responsabilização no que concerne ao tratamento da sua doença, a relação que estabelecem com o seu médico, e a participação na avaliação e monitorização da qualidade dos serviços. Mais recentemente, também no mundo científico, esta afirmação se fez sentir, com o surgimento de investigação liderada por utentes, no sentido de estudar de forma adequada questões que partem do seu ponto de vista, e que possibilitem a produção de conhecimento significativa no contexto das suas experiências. Com o presente trabalho pretende-se contribuir para a validação da versão portuguesa do VOICE (Service Users’ Perceptions of Inpatient Care, Views on Inpatient Care) (Evans et al., 2012), instrumento para a avaliação dos serviços de internamento de agudos em psiquiatria, construído a partir de um investigação liderado por utentes e partindo das suas perspectiva. O VOICE é constituído por 19 questões, agrupadas em sete domínios: admissão; cuidados e tratamento; medicação; equipa de técnicos do internamento; terapia e atividades; ambiente e diferenças. O presente estudo envolveu uma amostra de 85 utentes de um serviço de internamento de agudos de uma instituição psiquiátrica do Norte de Portugal. A versão portuguesa do VOICE apresentou boa aceitação por parte dos utentes e boas características psicométricas - a consistência interna foi alta (α = 0,87) e todos, exceto um item (item 6), apresentam elevadas correlações item-total (variando de 0,18 - item 6 a 0,71 - item 11; M = 0,54, DP = 0,15), sugerindo ser um instrumento útil na avaliação dos serviços de internamento de agudos. No futuro torna-se necessário alargar o estudo a outros contextos de internamento e envolvendo amostras mais alargadas.-------------- ABSTRACT: In recent years there has been a gradual process to help people with the experience of mental illness regaining their full rights. Following the advances in the understanding of mental health problems, and the use of medication to help patients overcome symptoms, service-users have become more autonomous and responsible in the way they deal with health professionals, and are now called to participate in assessing and monitoring mental health services and policies. In the context of these transformations we have assisted to the emergence of research led by service-users (in this case of psychiatric and mental health services) in order to emphasize their point of view, and to enable the production of significant knowledge resulting from their experiences, and perceptions. The present study aims to contribute to the dissemination of service-user led research, based on the adaptation and validation of the Portuguese version of the VOICE - Service Users' Perceptions Questionnaire, Views on Inpatient Care. (Evans et al., 2012). The VOICE is composed of 19 questions, grouped in seven domains: admissions, care and treatment, medication, team of technicians during hospitalization, therapy and activities, environment and diversity. The present study involved a sample of 85 inpatient of a psychiatric institution in Northern Portugal. The Portuguese version of the VOICE showed good psychometric properties and was well accepted by patients [high internal consistency (α = 0,87); and high correlation of each item, except item 6, with the total score (ranging from 0.18 on item 6 to 0.71 on item 11; average=0,54; SD=0,15), suggesting it to be a useful tool for assessing inpatient services. In the future there is a need to extend the study to other contexts and include larger samples.
Resumo:
Neste trabalho é revista uma metodologia baseada na modelação matemática de dados de perda transepidérmica de água (PTEA) após a realização de um plastic occlusion stress test (POST), para avaliar a dinâmica hídrica cutânea através de parâmetros cinéticos. Embora simples de executar, esta metodologia consome muito tempo, uma vez que normalmente envolve a recolha de dados durante, pelo menos, 30 minutos. Esta investigação tem como objectivo optimizar o protocolo, reduzindo o tempo total da experiência através da recolha de mais pontos na fase inicial do estudo.Foi possível reduzir significativamente o tempo de análise, o que se torna vantajoso tanto para os investigadores, como para os voluntários, uma vez que, por um lado, há redução dos custos de investigação, bem como se assegura o conforto dos participantes no estudo.
Resumo:
A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.
Resumo:
Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".
Resumo:
O presente trabalho trata da validação de uma metodologia de análise para a determinação de dibenzo-p-dioxinas policloradas (PCDDs) em cinzas obtidas através de um processo de incineração de aparas de couro wet-blue. As dioxinas, compostos de extrema toxicidade, podem ser formadas na superfície das partículas de cinzas em reações de combustão. O mecanismo de formação de PCDDs requer uma atmosfera rica em oxigênio, uma fonte de cloro e a presença na cinza de um metal capaz de catalizar uma reação Deacon. O couro wet-blue apresenta em sua composição os precursores para a formação de dioxinas tais como o cloro e o metal catalisador sódio, cuja presença destes elementos foi comprovada por análises de superfície realizadas no couro e nas cinzas usando as técnicas de Rutherford Back-scattering Spectrometry (RBS) e Microscopia Eletrônica de Varredura (MEV). Desta forma, torna-se necessária a análise de dioxinas em cinzas de couro para especificar seu tratamento e destino final. As cinzas de couro foram obtidas numa unidade de bancada de incineração com reator de leito fixo, processo conhecido como GCC (Gaseificação e Combustão Combinadas). A metodologia utilizada para analisar dioxinas nas cinzas de couro foi baseada no Método 8280B da Agência de Proteção Ambiental dos Estados Unidos da América (EPA-USA). Este método descreve os procedimentos de extração de matrizes específicas, o clean-up para os analitos específicos e a determinação de dioxinas através das técnicas de cromatografia gasosa de alta resolução e espectrometria de massa de baixa resolução. O sucesso da análise depende da preparação dos extratos das amostras, etapa conhecida como clean-up, a qual é descrita minuciosamente neste trabalho, incluindo a montagem das colunas cromatográficas. A eficiência de extração das dioxinas foi obtida com os resultados comparativos das análises entre matrizes contaminadas com solução padrão de dioxinas e o padrão analítico. A validação deste método para análise de dioxinas policloradas em cinzas de couro wet-blue foi considerada satisfatória para os objetivos do trabalho, uma vez que a eficiência de extração de dioxinas obtida ficou dentro dos critérios estabelecidos pelo método.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
A competitividade está cada vez mais acirrada, em nível mundial, obrigando as empresas a fazerem verdadeiros malabarismos para definir suas políticas de precificação. Para atingir esse objetivo de forma eficaz, as empresas precisam ser ágeis e inovadoras, pois a concorrência está cada vez mais agressiva. Visando à redução da dificuldade do decisor na elaboração e na escolha de políticas comerciais, este estudo apresenta a concepção, o desenvolvimento e a validação de um Sistema de Apoio à Decisão Comercial, denominado de SADEC. A concepção foi antecedida pela avaliação das variáveis que influenciam a formação do preço e pela elaboração dos modelos matemáticos que dão sustentação ao SADEC. Durante essa fase de estudo, foram apresentadas algumas inter-relações entre as variáveis do preço que contribuem na avaliação da relação custo-volumelucro. Para a concepção, o desenvolvimento e a validação do SADEC foi utilizada a metodologia de análise consolidada pela pesquisa operacional. Com a concepção e o desenvolvimento do SADEC foi criado um sistema que auxilia o decisor a estabelecer e avaliar vários cenários, visando à criação de uma melhor política de preficicação. A validação do SADEC, foi realizada junto a três redes comerciais, com sede em Caxias do Sul, onde foi possível verificar a sua validade, e apresentou evidências concretas de que tal sistema é de grande utilidade para a definição de políticas comerciais. Acredita-se que este estudo contribua para a análise da relação custo-volume-lucro e, principalmente, para o estudo do processo decisório no impacto do uso de sistemas de apoio à decisão para a redução das dificuldades na definição de políticas comerciais.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.
Resumo:
Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.
Resumo:
A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.
Resumo:
A prolactina(PRL) humana circula em múltiplas formas de diferentes tamanhos moleculares, das quais três são detectadas na cromatografia por filtração em gel(CFG): Little ou monomérica(mPRL), Big( bPRL) e Big-Big ou macroprolactina( bbPRL ou macroPRL). Em pessoas normais, a principal forma é a mPRL(85 a 90% do total) com uma pequena proporção de macroPRL. Em algumas pessoas, porém, ocorre uma maior quantidade de macroPRL, um fenômeno denominado Macroprolactinemia, que se sabe estar presente entre 10-25% dos soros hiperprolactinêmicos. É importante a sua identificação para evitar investigação e tratamento desnecessário. O método padrão para sua detecção é a cromatografia por filtração em gel( CFG); porém, a precipitação com polietilenoglicol( PEG) é um método de triagem simples, confiável e de baixo custo. Os testes com PEG originais foram feitos com o ensaio imunofluorimétrico( IFMA) Delfia para PRL. Objetivo: Validar um teste sensível e específico para a triagem de macroPRL baseado no ensaio de PRL quimioluminescente Immulite DPC. Resultados e métodos: Analisamos amostras séricas de 142 pessoas de ambos sexos. Baseado nessas amostras de rotina, dosamos a PRL seguida da precipitação com PEG e cálculo da recuperação de PRL( %R de PRL). Destes soros, 88 foram submetidos a cromatografia com filtração em Gel. Foi definido um ponto-de-corte para a presença de macroPRL, baseado numa curva ROC, ao comparar-se os resultados do teste de precipitação com PEG e os da CFG. O ponto-de-corte foi definido em 60%, com o achado de um teste com sensibilidade de 88,9% e especificidade de 98,6%. Correlacionou-se a dosagem de mPRL com a presença de macroPRL na cromatografia. Conclusão: Validamos um teste de triagem para macroPRL baseado no ensaio quimioluminescente DPC Immulite com sensibilidade de 88,9% e especificidade de 98,6 % para a porcentagem de recuperação PRL de 60%. O achado de uma valor de mPRL menor ou igual a 20 depois da precipitação com PEG vai suportar este diagnóstico. A prevalência( 20,4%) de macroPRL encontrada em nosso estudo, utilizando a metodologia proposta, é semelhante à encontrada na literatura.