982 resultados para Seleção de variáveis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Apesar do crescente reconhecimento do potencial dos diagramas causais por epidemiologistas, essa técnica ainda é pouco utilizada na investigação epidemiológica. Uma das possíveis razões é que muitos temas de investigação exigem modelos causais complexos. Neste trabalho, a relação entre estresse ocupacional e obesidade é utilizada como um exemplo de aplicação de diagramas causais em questões relacionadas a confundimento. São apresentadas etapas da utilização dos diagramas causais, incluindo a construção do gráfico acíclico direcionado, seleção de variáveis para ajuste estatístico e a derivação das implicações estatísticas de um diagrama causal. A principal vantagem dos diagramas causais é tornar explícitas as hipóteses adjacentes ao modelo considerado, permitindo que suas implicações possam ser analisadas criticamente, facilitando, desta forma, a identificação de possíveis fontes de viés e incerteza nos resultados de um estudo epidemiológico.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este estudo tem como objetivo geral identificar no conjunto de medidas e testes do Projeto Esporte Brasil (PROESP-BR) indicadores de desempenho esportivo que permitam desenvolver parâmetros e metodologias para a detecção de possíveis talentos esportivos para o handebol, para o voleibol e para o basquetebol. A amostra é composta de 313 jovens indivíduos, estratificados conforme o nível de rendimento esportivo (atletas ou escolares), modalidade esportiva e sexo. O procedimento estatístico utilizado foi a Análise da Função Discriminante. Na comparação entre atletas e escolares, foram encontradas diferenças estatisticamente significativas em todos os indicadores, com exceção da variável flexibilidade nas comparações: entre basquetebolistas e escolares do sexo masculino, e handebolistas e escolares do sexo masculino. Os indicadores de seleção estabeleceram-se da seguinte maneira: no Basquete Masculino, destacaram-se como indicadores de seleção, as variáveis: força explosiva de membros superiores, massa corporal, envergadura, estatura, força explosiva de membros inferiores, velocidade e agilidade; no Basquete Feminino: força explosiva de membros superiores, força explosiva de membros inferiores, velocidade, agilidade, envergadura, estatura e força-resistência abdominal; no Handebol Masculino: força explosiva de membros superiores, velocidade, força explosiva de membros inferiores, agilidade, massa corporal, estatura e envergadura; no Handebol Feminino: força explosiva de membros inferiores, velocidade, agilidade, força explosiva de membros superiores e envergadura; no Voleibol Masculino: força explosiva de membros superiores, força explosiva de membros inferiores, massa corporal, envergadura, estatura, velocidade e agilidade; e no Voleibol Feminino: força explosiva de membros inferiores, agilidade, envergadura, estatura, força explosiva de membros superiores, velocidade, força-resistência abdominal e massa corporal. O conjunto de indicadores do PROESP-BR apresentou um grande poder discriminatório entre jovens escolares e jovens atletas, classificando os casos com grande precisão e com altos percentuais de acerto. Foram encontrados 3 jovens escolares com perfil de atletas de handebol (1 do sexo masculino e 2 dos sexo feminino).

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The aim of this study was to evaluate the potential of near-infrared reflectance spectroscopy (NIRS) as a rapid and non-destructive method to determine the soluble solid content (SSC), pH and titratable acidity of intact plums. Samples of plum with a total solids content ranging from 5.7 to 15%, pH from 2.72 to 3.84 and titratable acidity from 0.88 a 3.6% were collected from supermarkets in Natal-Brazil, and NIR spectra were acquired in the 714 2500 nm range. A comparison of several multivariate calibration techniques with respect to several pre-processing data and variable selection algorithms, such as interval Partial Least Squares (iPLS), genetic algorithm (GA), successive projections algorithm (SPA) and ordered predictors selection (OPS), was performed. Validation models for SSC, pH and titratable acidity had a coefficient of correlation (R) of 0.95 0.90 and 0.80, as well as a root mean square error of prediction (RMSEP) of 0.45ºBrix, 0.07 and 0.40%, respectively. From these results, it can be concluded that NIR spectroscopy can be used as a non-destructive alternative for measuring the SSC, pH and titratable acidity in plums

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este trabalho incide na análise dos açúcares majoritários nos alimentos (glucose, frutose e sacarose) com uma língua eletrónica potenciométrica através de calibração multivariada com seleção de sensores. A análise destes compostos permite contribuir para a avaliação do impacto dos açúcares na saúde e seu efeito fisiológico, além de permitir relacionar atributos sensoriais e atuar no controlo de qualidade e autenticidade dos alimentos. Embora existam diversas metodologias analíticas usadas rotineiramente na identificação e quantificação dos açúcares nos alimentos, em geral, estes métodos apresentam diversas desvantagens, tais como lentidão das análises, consumo elevado de reagentes químicos e necessidade de pré-tratamentos destrutivos das amostras. Por isso se decidiu aplicar uma língua eletrónica potenciométrica, construída com sensores poliméricos selecionados considerando as sensibilidades aos açucares obtidas em trabalhos anteriores, na análise dos açúcares nos alimentos, visando estabelecer uma metodologia analítica e procedimentos matemáticos para quantificação destes compostos. Para este propósito foram realizadas análises em soluções padrão de misturas ternárias dos açúcares em diferentes níveis de concentração e em soluções de dissoluções de amostras de mel, que foram previamente analisadas em HPLC para se determinar as concentrações de referência dos açúcares. Foi então feita uma análise exploratória dos dados visando-se remover sensores ou observações discordantes através da realização de uma análise de componentes principais. Em seguida, foram construídos modelos de regressão linear múltipla com seleção de variáveis usando o algoritmo stepwise e foi verificado que embora fosse possível estabelecer uma boa relação entre as respostas dos sensores e as concentrações dos açúcares, os modelos não apresentavam desempenho de previsão satisfatório em dados de grupo de teste. Dessa forma, visando contornar este problema, novas abordagens foram testadas através da construção e otimização dos parâmetros de um algoritmo genético para seleção de variáveis que pudesse ser aplicado às diversas ferramentas de regressão, entre elas a regressão pelo método dos mínimos quadrados parciais. Foram obtidos bons resultados de previsão para os modelos obtidos com o método dos mínimos quadrados parciais aliado ao algoritmo genético, tanto para as soluções padrão quanto para as soluções de mel, com R²ajustado acima de 0,99 e RMSE inferior a 0,5 obtidos da relação linear entre os valores previstos e experimentais usando dados dos grupos de teste. O sistema de multi-sensores construído se mostrou uma ferramenta adequada para a análise dos iii açúcares, quando presentes em concentrações maioritárias, e alternativa a métodos instrumentais de referência, como o HPLC, por reduzir o tempo da análise e o valor monetário da análise, bem como, ter um preparo mínimo das amostras e eliminar produtos finais poluentes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The incidence of cardiovascular diseases (CVD) has been increasing according to the European and global statistics. Thus, the development of new analytical devices, such as biosensors for assessing the risk of CVD could become a valuable approach for the improvement of healthcare service. In latest years, the nanotechnology has provided new materials with improved electronic properties which have an important contribution in the transduction mechanism of biosensors. Thus, in this thesis, biosensors based on field effect transistors with single-walled carbon nanotubes (NTFET) were developed for the detection of C-reactive protein (CRP) in clinical samples, that is, blood serum and saliva from a group of control patients and a group of CVD risk patients. CRP is an acute-phase protein, which is commonly known as the best validated biomarker for the assessment of CVD, the single-walled carbon nanotubes (SWCNT) were applied as transduction components, and the immunoreaction (interaction between the CRP antigen and the antibodies specific to CRP) was used as the mechanism of molecular recognition for the label-free detection of CRP. After the microfabrication of field effect transistors (FET), the screening of the most important variables for the dispersion of SWCNT, the assemblage of NTFET, and their application on standard solutions of CRP, it was found that NTFET respond accurately to CRP both in saliva and in serum samples, since similar CRP levels were found with the NTFET and the traditional methodology (ELISA technique). On the other hand, a strong correlation between salivary and serum CRP was found with NTFET, which means that saliva could be used, based on non-invasive sampling, as an alternative fluid to blood serum. It was also shown that NTFET could discriminate control patients from CVD risk patients, allowing the determination of a cut-off value for salivary CRP of 1900 ng L-1, which corresponds to the well established cut-off of 3 mg L-1 for CRP in serum, constituting an important finding for the possible establishment of a new range of CRP levels based on saliva. According to the data provided from the volunteer patients regarding their lipoprotein profile and lifestyle factors, it was concluded that the control and the CVD risk patients could be separated taking into account the various risk factors established in literature as strong contributors for developing a CVD, such as triglycerides, serum CRP, total cholesterol, LDL cholesterol, body mass index, Framingham risk score, hypertension, dyslipidemia, and diabetes mellitus. Thus, this work could provide an additional contribution to the understanding of the association of biomarkers levels in serum and saliva samples, and above all, cost-effective, rapid, label-free, and disposable NTFET were developed, based on a noninvasive sampling, for the assessment of CVD risk, thus constituting a potential point-of-care technology.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta diferentes metodologias de construção de indicadores antecedentes compostos de atividade econômica comparando os resultados obtidos por cada de acordo com seu poder de antecipação dos movimentos cíclicos da indústria brasileira. Entre as metodologias testadas incluem-se: i) a tradicional, proposta pelo National Bureau of Economic Research (NBER) na década de 60, adaptada e melhorada ao longo dos anos por instituições como a OCDE, The Conference Board e outros; ii) a seleção de variáveis por meio de testes de causalidade de Granger, e iii) seleção e pesos determinados por meio de regressão múltipla. A qualidade dos indicadores antecedentes compostos criados foi avaliada fora da amostra, com base na sua capacidade em antecipar, de forma regular e estável, os pontos de reversão do ciclo de crescimento da indústria brasileira e levando em consideração a conformidade cíclica geral em relação à variável de referência.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A precarização do trabalho vem sendo destacada como um dos principais problemas associados aos processos de reestruturação das formas de produzir e dos modos de organizar e gerir o trabalho que, no Brasil, vêm ocorrendo de modo mais efetivo a partir da década de 90, no bojo das transformações do sistema capitalista desencadeadas a partir do último quartel do século XX. Nesse contexto, o presente estudo tem como objetivo geral investigar as repercussões desses processos na sociedade brasileira, analisando o modo como as mudanças vêm reconfigurando as relações de trabalho – desorganizando o padrão vigente que remetia a um crescente assalariamento da mão-de-obra e a uma maior proteção social – e criando e aprofundando situações de precarização no trabalho. Sendo um evento de proporções planetárias, o estudo das transformações aludidas requereu investigar suas principais características nas sociedades avançadas, com ênfase nos impactos sobre o trabalho e as interpretações forjadas com vistas a sua apreensão, em que sobressai o debate a respeito da centralidade do trabalho, contemporaneamente. No Brasil, onde tais mudanças se encontram condicionadas pelo legado histórico tanto quanto pela experiência nacional recente, de uma maior inserção na economia globalizada, foram destacados os desdobramentos das mutações sobre as formas de inserção dos trabalhadores no mercado de trabalho. Na revisão da literatura, procurou-se avançar no debate relativo à construção conceitual da noção de precarização, retomando e retrabalhando o enfoque sobre o setor informal, à luz dos achados empíricos e das questões debatidas na tese. No desenvolvimento do estudo, elaborou-se uma metodologia com vistas à apreensão de situações de precariedade no trabalho, utilizando informações da Pesquisa de Emprego e Desemprego Região Metropolitana de Porto Alegre (PED-RMPA). A análise abrangeu diferentes estratégias: 1) uma classificação dos trabalhadores em categorias ocupacionais; 2) a seleção de variáveis e indicadores para caracterizar formas de inserção ocupacional, permitindo explicitar situações e graus de precarização na inserção laboral; e 3) a construção de um Índice de Precarização. Tais estratégias foram aplicadas também para investigar a precarização no trabalho sob o recorte de gênero. A análise dos dados indicou que as transformações recentes têm conduzido à precarização das formas de inserção da população economicamente ativa no mercado de trabalho – o que se manifesta através do aumento do desemprego e da ampliação de formas de inserções mais frágeis e instáveis nesse mercado, via de regra com menor proteção social –, paralelamente à retração de inserções ocupacionais cobertas pelas normas legais vigentes. Tal situação requer seja construída uma nova regulação social, que inclua o polimorfismo do trabalho, contra-arrestando situações de insegurança e vulnerabilidade sociais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este estudo propõe um método alternativo para a previsão de demanda de energia elétrica, através do desenvolvimento de um modelo de estimação baseado em redes neurais artificiais. Tal método ainda é pouco usado na estimativa de demanda de energia elétrica, mas tem se mostrado promissor na resolução de problemas que envolvem sistemas de potência. Aqui são destacados os principais fatores que devem pautar a modelagem de um sistema baseada em redes neurais artificiais, que são: seleção das variáveis de entrada; quantidade de variáveis; arquitetura da rede; treinamento; previsão da saída. O modelo ora apresentado foi desenvolvido a partir de uma amostra de 125 municípios do Estado do Rio Grande do Sul (Brasil), nos anos de 1999 a 2002. Como variáveis de entrada, foram selecionados a temperatura ambiente (média e desvio-padrão anual), a umidade relativa do ar (média e desvio-padrão anual), o PIB anual e a população anual de cada município incluído na amostra. Para validar a proposta apresentada, são mostrados resultados baseados nas simulações com o modelo proposto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.