940 resultados para métodos qualitativos e quantitativos
Resumo:
O presente trabalho visa a investigar historicamente o uso de droga enquanto objeto de intervenção da Medicina e da Psiquiatria, a partir do início do século XX até os dias atuais, refletindo sobre a articulação e a cooperação entre essas duas instituições, inserindo o problema no panorama geral da questão no Brasil e no mundo. Para atingir esse objetivo, farse-á a análise de documentos produzidos ao longo do período referido nos dois âmbitos: documentos legais e as principais referências da bibliografia psiquiátrica. Assim, o principal foco do estudo é encontrar as convergências e divergências dos processos de medicalização e criminalização do uso de droga, dando especial atenção para o arranjo atual dessa problemática. Após a análise documental, far-se-á um contraponto das informações colhidas na pesquisa com alguns trabalhos genealógicos de Michel Foucault, pensando como este teórico pode ajudar a compreender o surgimento, a evolução e a configuração atual da questão da droga no Brasil.
Resumo:
Machaerium é um dos maiores gêneros arbóreos tropicais de leguminosas, com cerca de 130 espécies com distribuição predominantemente neotropical e centro de diversidade no Brasil, onde ocorrem cerca de 80 espécies. O gênero ocorre em todos os domínios fitogeográficos do país, porém a Mata Atlântica e a Floresta Amazônica possuem os maiores índices de riqueza e endemismo. As espécies do gênero estão classificadas em cinco seções infragenéricas, que se baseiam principalmente na forma e venação dos folíolos e na presença de estípulas espinescentes. Entretanto, esta classificação tem sido questionada por alguns autores, principalmente quando comparada com análises filogenéticas. Dessa forma, surge a necessidade de buscar outros caracteres que auxiliem na delimitação das espécies e que permitam uma reavaliação na classificação nfragenéricas, além de conhecer o potencial para estudos dendrocronológicos das espécies em um bioma tão rico e ameaçado como a Mata Atlântica. O presente trabalho visou estudar a anatomia do lenho de onze espécies arbóreas de Machaerium a fim de verificar a consistência das seções infragenéricas, fornecer caracteres diagnósticos para a delimitação das espécies e caracterizar as pontoações intervasculares ornamentadas, para verificar seu potencial diagnóstico no gênero em questão. Além disso, analisar a periodicidade de crescimento e a influência dos fatores climáticos no crescimento de Machaerium incorruptibile, espécie endêmica da Mata Atlântica. As amostras foram coletadas através de método não destrutivo e processadas seguindo os métodos usuais para anatomia do lenho, microscopia eletrônica de varredura e dendrocronologia. As espécies apresentaram as características anatômicas descritas para a família Leguminosae e para a subfamília Papilionoideae. A presença de faixas de parênquima não lignificado, fibras de paredes delgadas e raios irregularmente estratificados foram importantes na separação de Machaerium hirtum das outras dez espécies. As dez espécies restantes foram separadas entre si pelos dados quantitativos do lenho, principalmente diâmetro e frequência de vasos, e também pelos caracteres morfológicos das pontoações ornamentadas, como a projeção ou não das ornamentações na abertura da pontoação. A anatomia da madeira não correspondeu as seções infragenéricas tradicionalmente tratadas para o gênero. Para a dendrocronologia os dados foram analisados com uso do software ARSTAN e foi construída uma cronologia para M. incorruptibile. As cronologias foram analisadas juntamente com os dados de precipitação e temperatura, onde observou-se uma correlação significativa com a temperatura. A largura dos anéis de crescimento foi correlacionada positivamente com a temperatura média da primavera, época em que a temperatura se encontra mais amena e, negativamente com a temperatura média do verão, onde as temperaturas são mais altas. Também houve correlação negativa entre os eventos mais severos de El Niño e a largura dos anéis de crescimento, demonstrando o efeito deste fenômeno no crescimento da população arbórea, como encontrado em outras espécies tropicais.
Resumo:
O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.
Resumo:
[es]El principal objetivo de este trabajo es la validación de métodos analíticos nuevos como son la determinación de amonio, nitrato y carbono orgánico total en muestras de aguas de estuario ya que no se han encontrado estudios para este tipo de muestras. A partir de este objetivo principal, se pretende, por un lado, comprobar la influencia de la diferente salinidad de las muestras en el desarrollo de métodos potenciométricos mediante ISE para la medida de nitrato y amonio y del equipo de TOC-VCSN para la determinación de carbono orgánico. Además, con la ayuda de cálculos estadísticos, determinar la incertidumbre asociada a la determinación de la concentración de amonio, nitrato y carbono orgánico en las muestras. Y, por último, analizar la posible variación de las muestras a lo largo del tiempo para comprobar su estabilidad.
Resumo:
137 p.
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar
Resumo:
O setor de saúde pública convive com uma constante escassez de recursos combinada com uma necessidade crescente de investimentos em tecnologia e inovação. Portanto, é necessário que os gestores públicos de saúde busquem maneiras de maximizar o uso destes recursos orçamentários escassos. Uma das alternativas é implementar estudos sobre custos, que possibilitem ao gestor exercer o controle, o combate ao desperdício e o planejamento dos investimentos futuros. No entanto, na área governamental, existem outros grupos, além do gestor, que têm interesse em conhecer as informações de custos do setor de saúde. Esses grupos são chamados pela teoria da administração de Stakeholders. Cada stakeholder, tais como médicos, pacientes, fornecedores, sociedade entre outros podem demandar informações distintas de custos. Por este motivo, o objetivo deste trabalho é investigar qual o método de custeio que melhor se adequa as necessidades dos diferentes stakeholders de um hospital público. Para tanto, elaborou-se uma pesquisa bibliográfica que abordasse os métodos de custeio por absorção, custeio variável e custeio baseado em atividades, que são os métodos mais debatidos pela literatura contábil. Dessa forma, com objetivo de responder a questão de pesquisa, o presente trabalho desenvolve um cenário hipotético de um hospital universitário público, no qual estão identificados os seus stakeholders e suas respectivas necessidades de informações de custo. Como resultado das análises, observa-se que cada um destes stakeholders apresenta um método de custeio, ou uma combinação de dois destes, que melhor se adequa as suas necessidades de informação de custos.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Esta pesquisa tem como objetivo ressaltar a relevância da utilização do gênero textual carta do leitor nas aulas de Língua Portuguesa como recurso para ampliar a competência textual e argumentativa dos discentes. Visando explorar as características funcionais e estruturais da carta, é possível despertar nos estudantes um conhecimento aplicável aos demais gêneros de tipologia argumentativa e enriquecer, consequentemente, suas observações como leitor, pois o trabalho com a carta promove a análise e a reflexão de seu conteúdo e de seus elementos composicionais. Tendo em vista os princípios da Linguística Sistêmico-Funcional, o trabalho foi desenvolvido seguindo os pressupostos das Metafunções da Linguagem (HALLIDAY; MATTHIESSEN, 2004) e da Teoria da Valoração (MARTIN; WHITE, 2005). O corpus analisado é composto de quatro cartas do leitor, avaliadas de forma demonstrativa, e outras vinte e seis, apresentadas com avaliações qualitativas e quantitativas por meio de tabela. Também são utilizados trechos selecionados de outras dez cartas do leitor. O material engloba as trocas interpessoais e as ocorrências de Engajamento, Julgamento e Apreciação. O texto dos autores das cartas foi analisado por meio da identificação de marcas linguísticas de interpessoalidade e, principalmente, de Valoração. Além disso, outros eixos temáticos são explorados, como os cortes impostos às cartas, que criam a carta do editor, e a importância da revisão textual. Os resultados quantitativos e qualitativos da pesquisa revelam que as cartas são escritas com a finalidade de estabelecer trocas de informações e opiniões acerca de comportamentos humanos e, às vezes, de avaliações estéticas de composição, de reação ou de valor social, em que o posicionamento do autor é revelado por seu Engajamento autoral. Desse modo, verifica-se que o uso das cartas do leitor, em sala de aula, possibilita aos alunos ampliar as competências de exposição de ideias, de interação com o interlocutor e de inserção em diferentes práticas sociais
Resumo:
A Costa Peruana apresenta alta atividade sísmica, tornando imprescindível a execução de análises de estabilidade que considerem os eventos sísmicos. Com o desenvolvimento de novas ferramentas numéricas, a análise dinâmica está se tornando cada vez mais importante e usual na fase de projeto, não se justificando mais a execução de análises estáticas em locais tão vulneráveis a sismos. A presente dissertação tem como objetivo realizar a análise da estabilidade dos Penhascos de Lima, Peru, considerando quatro taludes distintos, em uma região bastante afetada por abalos sísmicos. As análises foram executadas pelos métodos de equilíbrio limite, elementos finitos e pseudo-estático, buscando-se uma comparação entre os diferentes métodos. O trabalho apresenta uma descrição completa dos taludes em estudo, uma avaliação da condição sismológica da região e finalmente a estabilidade dos Penhascos de Lima, fazendo uso dos programas computacionais Slide (método do equilíbrio limite) e Plaxis (método dos elementos finitos) em 2D. Os resultados mostraram que os três métodos adotados forneceram fatores de segurança compatíveis, principalmente quando se considera perfis menos estratificados. Para perfis homogêneos, as diferenças obtidas foram da ordem de 0,5 a 1,0 %. As análises ressaltaram a importância de considerar a condição dinâmica, e mostraram-se bastante sensíveis aos valores de carga sísmica adotado.
Resumo:
A presente pesquisa objetiva identificar o estado de compatibilidade entre os instrumentos contábeis de mensuração de ativos intangíveis e aqueles utilizados para estabelecer o valor econômico de atletas de futebol. Para isso, foi realizado um estudo de caso único em uma empresa de consultoria que realiza tal avaliação de atleta, com intuito de aprofundar na pesquisa de forma exploratória. As técnicas utilizadas para dar suporte à pesquisa foram análise documental e pesquisa semiestruturada, que contribuíram com os objetivos específicos deste estudo, além da análise bibliográfica. Como resultado de pesquisa pode-se verificar um alinhamento entre os indicadores de avaliação de atletas de futebol utilizados pela empresa objeto desse estudo e aqueles utilizados pelos métodos contábeis para avaliação dos ativos intangíveis com foco no capital humano. Dessa forma, o resultado apresentou a identificação de dez indicadores de alinhamentos, evidenciando uma padronização dos métodos e contribuindo com a redução da subjetividade na forma de avaliar os ativos intangíveis de uma maneira geral.