891 resultados para Classificação de Bliss
Resumo:
Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade
Resumo:
Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte
Resumo:
O objetivo deste trabalho é conhecer e compreender melhor os imprevistos no fornecimento de energia elétrica, quando ocorrem as variações de tensão de curta duração (VTCD). O banco de dados necessário para os diagnósticos das faltas foi obtido através de simulações de um modelo de alimentador radial através do software PSCAD/EMTDC. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar VTCDs e realizar a estimativa automática da frequência, do ângulo de fase e da amplitude das tensões e correntes da rede elétrica. Nesta pesquisa, desenvolveram-se duas redes neurais artificiais: uma para identificar e outra para localizar as VTCDs ocorridas no sistema de distribuição de energia elétrica. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas desequilibradas, que podem possuir ramais laterais trifásicos, bifásicos e monofásicos. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões e correntes no nó inicial do alimentador e também em alguns pontos esparsos ao longo do alimentador de distribuição. Os desempenhos das arquiteturas das redes neurais foram satisfatórios e demonstram a viabilidade das RNAs na obtenção das generalizações que habilitam o sistema para realizar a classificação de curtos-circuitos.
Resumo:
Este trabalho tem por objetivo propor um modelo de ontologia simples e generalista, capaz de descrever os conceitos mais básicos que permeiam o domínio de conhecimento dos jornais on-line brasileiros não especializados, fundamentado tanto na prática quanto conceitualmente, em conformidade com os princípios da Web Semântica. A partir de uma nova forma de classificação e organização do conteúdo, a ontologia proposta deve ter condições de atender as necessidades comuns de ambas as partes, jornal e leitor, que são, resumidamente, a busca e a recuperação das informações.
Resumo:
A classificação indicativa da programação televisiva gerou recentemente um grande debate no Brasil. Através de uma pesquisa em jornais de janeiro de 2007 a abril de 2008, esta dissertação pretende apresentar e entender as diversas posições, o embate ideológico em torno de ideias como liberdade e democracia, e quais os interesses por trás desta disputa. Enquanto representantes de movimentos sociais e organizações não governamentais em defesa dos direitos da criança e do direito à comunicação se empenhavam na regulamentação, o empresariado da comunicação apresentação forte resistência.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
O objetivo do presente trabalho é analisar o arquivo pessoal de Arthur Ramos, intelectual que teve uma destacada participação nos debates sobre a democracia racial e na institucionalização das Ciências Sociais no Brasil nas décadas de 1930 e 1940. Através de seu acervo, custodiado pela Divisão de Manuscritos da Fundação Biblioteca Nacional, procurou-se perceber quais processos sociológicos que podem incidir sobre a formação do patrimônio documental, além das estratégias de construção e re-elaboração desta memória. Foram debatidas as teorias e práticas da arquivista para mapear diferentes formas de deslocamentos, ressignificação e reclassificação dos arquivos em geral e desse caso particular. Para isto, foram analisados o processo de compra do fundo Arthur Ramos, os relatórios de atividades, o inventário analítico do fundo, além de entrevistas informais.
Resumo:
Esta pesquisa refere-se ao desenvolvimento de um novo sistema triagem ou classificação de risco para os serviços de urgências e emergências pediátricas e ao estudo de validade e confiabilidade deste instrumento. O primeiro tópico trata de conceitos e fundamentos relacionados à triagem e evidencia a complexidade do tema em vários aspectos. O segundo tópico apresenta as justificativas para o desenvolvimento de um novo sistema de classificação de risco para o contexto de saúde brasileiro, diante das inadequações de se adotar sistemas idealizados em países com desenvolvimento econômico, social e cultural diversos. O terceiro tópico apresenta os objetivos da pesquisa: rever o estado da arte em relação à validade e confiabilidade de sistemas de triagem em crianças, descrever o desenvolvimento de um sistema brasileiro de classificação de risco para urgências e emergências pediátricas e estudar a validade e confiabilidade do novo instrumento. O quarto tópico é uma revisão sistemática da literatura sobre a validade e confiabilidade dos sistemas de triagem utilizados na população pediátrica. Localizaram-se estudos sobre sete sistemas de triagem desenvolvidos no Canadá, Reino Unido, EUA, Austrália, Escandinávia e África do Sul. Constatou-se a dificuldade de se comparar o desempenho de diferentes instrumentos, devido à heterogeneidade dos desfechos, das populações e dos contextos de saúde estudados. O quinto tópico descreve o processo de desenvolvimento de um instrumento brasileiro de classificação de risco em pediatria, CLARIPED, a partir do consenso entre especialistas e pré-testes. Justificou-se a escolha da Escala Sul Africana de Triagem como referência, pela sua simplicidade e objetividade e pela semelhança socioeconômica e demográfica entre os dois países. Introduziram-se várias modificações, mantendo-se a mesma logística do processo de triagem em duas etapas: aferição de parâmetros fisiológicos e verificação da presença de discriminadores de urgência. O sexto tópico se refere ao estudo prospectivo de validade e confiabilidade do CLARIPED no setor de emergência pediátrica de um hospital terciário brasileiro, no período de abril a julho de 2013. Uma boa validade de construto convergente foi confirmada pela associação entre os níveis de urgência atribuídos pelo CLARIPED e os desfechos evolutivos utilizados como proxies de urgência (utilização de recursos, hospitalização, admissão na sala de observação e tempo de permanência no setor de emergência). A comparação entre o CLARIPED e o padrão de referência mostrou boa sensibilidade de 0,89 (IC95%=0,78-0,95) e especificidade de 0,98 (IC95%=0,97-0,99) para diagnosticar elevada urgência. A confiabilidade interobservadores, resultou num kappa ponderado quadrático substancial de 0,75 (IC95%: 0,74-0,79). O sétimo e último tópico tece considerações finais sobre dois aspectos: a insuficiência de evidências científicas sobre os sistemas de triagem na população pediátrica e a oportunidade e relevância de se desenvolver um sistema brasileiro de classificação de risco para urgências e emergências pediátricas, válido e confiável, com possibilidades de adoção em âmbito nacional.
Resumo:
A Constituição da República Federativa do Brasil (1988), em seu Art. n. 20, deixa claro: São bens da União: ... os recursos naturais da plataforma continental e da zona econômica exclusiva; e ainda: é assegurada, nos termos da lei, aos Estados, ao Distrito Federal e aos Municípios, bem como a órgãos da administração direta da União, participação no resultado da exploração de petróleo ou gás natural, de recursos hídricos para fins de geração de energia elétrica e de outros recursos minerais no respectivo território, plataforma continental, mar territorial ou zona econômica exclusiva, ou compensação financeira por essa exploração. Portanto, os Royalties do Petróleo constituem compensações financeiras, previstas em lei, devida aos entes federativos pelos concessionários que exploram e produzem petróleo ou gás natural. A identificação dos estados e municípios beneficiários dos Royalties do Petróleo e do gás natural extraídos da plataforma continental é feita de acordo com critérios definidos pelo decreto presidencial de n. 93.189, de 29 de agosto de 1986, que determina à Fundação Instituto Brasileiro de Geografia e Estatística (IBGE) como órgão responsável pelos traçados das projetantes dos limites estaduais e municipais e, também, pela identificação dos Estados e Municípios a serem beneficiados pelos Royalties do Petróleo produzido na Plataforma Continental. Sendo assim, este trabalho consiste no desenvolvimento de um Sistema de Informação Geográfica voltado para a classificação dos estados e municípios quanto à sua categoria de beneficiário dos Royalties do Petróleo em conformidade com a Lei n. 7.525/86 e com o Decreto n. 93.189/86.
Resumo:
Instrumentos financeiros híbridos e/ou compostos têm sido tema constante em matéria de regulação contábil. A literatura positiva apresenta uma hipótese que ajuda a compreender o porquê de algumas firmas recorrerem a ditos instrumentos para captar recursos: nível de endividamento no limite de quebra de covenants contratuais. No Brasil, firmas com registro na CVM, que se utilizaram desses instrumentos, classificando-os no patrimônio líquido, tiveram suas ITRs e/ou DFs reapresentadas e/ou republicadas por determinação da CVM. O ponto crítico de toda a discussão reside na distinção entre um item de passivo e um item de patrimônio líquido. Esse tema está disciplinado na IAS 32 (PT CPC n. 39) e presente no Discussion Paper - A review of the conceptual framework for financial reporting, emitido pelo IASB em julho de 2013, que apresenta duas abordagens que podem ser utilizadas, visando a simplificar a distinção entre um item de passivo e de patrimônio líquido: a narrow equity approach - NEA e a strict obligation approach - SOA. A adoção de cada uma dessas abordagens terá um impacto diferente nos níveis de endividamento/alavancagem e no potencial de diluição de participação dos acionistas. Este trabalho tem como objetivo investigar abordagens para a classificação contábil das debêntures mandatoriamente conversíveis em ações, vis-à-vis a IAS 32 (PT CPC n. 39) e o Discussion Paper do IASB (NEA x SOA). A metodologia adotada é um estudo de caso de uma companhia aberta brasileira, que em 2010 emitiu debêntures mandatoriamente conversíveis e efetuou uma classificação desses instrumentos considerada inadequada pelo órgão regulador. Observa-se que a strict obligation approach é a abordagem que impacta menos no nível de endividamento, enquanto a narrow equity approach é a que apresenta maior alavancagem. As evidências sugerem os covenants contratuais como possíveis indutores de tal prática, fato que está em linha com o que a literatura da área documenta como fenômeno esperado. É bem verdade que no caso concreto, houve quebra contínua de covenants contratuais, corroborando a hipótese apresentada por SILVA (2008) de que o baixo custo de violação de covenants contribua para tal situação. Alternativamente, uma possível explicação para a escolha contábil da companhia reside na complexidade da IAS 32 (PT CPC 39) e desconhecimento de suas nuances.
Resumo:
A análise de gases dissolvidos tem sido aplicada há décadas como a principal técnica de manutenção preditiva para diagnosticar defeitos incipientes em transformadores de potência, tendo em vista que a decomposição do óleo mineral isolante produz gases que permanecem dissolvidos na fase líquida. Entretanto, apesar da importância desta técnica, os métodos de diagnóstico mais conhecidos são baseados em constatações de modelos termodinâmicos e composicionais simplificados para a decomposição térmica do óleo mineral isolante, em conjunto com dados empíricos. Os resultados de simulação obtidos a partir desses modelos não reproduzem satisfatoriamente os dados empíricos. Este trabalho propõe um modelo termodinâmico flexível aprimorado para mimetizar o efeito da cinética de formação de sólidos como restrição ao equilíbrio e seleciona, entre quatro modelos composicionais, aquele que apresenta o melhor desempenho na simulação da decomposição térmica do óleo mineral isolante. Os resultados de simulação obtidos a partir do modelo proposto apresentaram uma melhor adequação a dados empíricos do que aqueles obtidos a partir dos modelos clássicos. O modelo propostofoi, ainda, aplicado ao desenvolvimento de um método de diagnóstico com base fenomenológica.Os desempenhos desta nova proposta fenomenológica e de métodos clássicos de diagnóstico por análise de gases dissolvidos foram comparados e discutidos; o método proposto alcançou desempenho superior a vários métodos usualmente empregados nessa área do conhecimento. E, ainda, um procedimento geral para a aplicação do novo método de diagnóstico é descrito
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
Manuel Antonio Chagas Jacinto, CPPSE; Alexandra Rocha de Oliveira, doutoranda UNESP/Jaboticabal;Douglas Luis Andreolla, mestrando UFMT;Mariana de Aragão Pereira, CNPGC;Carlos Henrique Laske, mestrando UFPel; Alfred Verner Loosli, agrônomo; Willian Paraguassu Amorin.
Resumo:
1999
Resumo:
2006