887 resultados para Comparação entre métodos de análise


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A noção de rede social e os métodos em análise em redes sociais (ARS) tem atraído considerável interesse e curiosidade para a comunidade científica nestas últimas décadas, assim como a crescente fascinação pública sobre as relações mais complexas da sociedade moderna. A ARS está baseada na importância de relações entre a interação de unidades. Numa análise de rede social a observação dos atributos sociais de um ator pode ser entendida como padrão ou como uma estrutura de relação entre as unidades. Desta forma, quando empregados a uma perspectiva de rede, é possível estudar os padrões de estruturas relacionais diretamente, sem referência a atributos dos indivíduos envolvidos. Na análise convencional de redes sociais a distância geográfica (ou geoespacial) não tem efeito mapeado na rede. Quando utilizada, esta informação normalmente adquire caráter de um atributo complementar associado individualmente a cada ator (ou aglomerados de atores) da própria rede. O objetivo deste trabalho é demonstrar, numa escala local (de maneira mais granular) como o posicionamento geoespacial dos atores, considerado como elementos da rede, pode desvendar aspectos significativos do comportamento destes que não seriam revelados em análises convencionais. No estudo de caso utilizou-se ainda conceitos de outras disciplinas, como a Matemática e a Física, para verificar a capilaridade do fluxo da informação da rede em três perspectivas distintas: a social, a espacial e a socioespacial. O trabalho descreve o campo emergente de pesquisa em ARS, abordando também questões fundamentais sobre como estas diferentes perspectivas podem trazer resultados mais assertivos para orientar uma tomada de decisão no mercado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Mudanças marcantes no perfil geográfico eleitoral do Brasil, no que diz respeito às eleições para Presidente da República, aconteceram no ano de 2006. Candidatos do Partido dos Trabalhadores (PT) que antes eram bem votados em regiões mais desenvolvidas do país, passaram a ganhar as eleições, com grande margem de preferência, nas regiões mais pobres do país. Entenda por regiões mais pobres as regiões Norte e Nordeste. Esse trabalho pretende traçar um histórico da relação eleitoral da Região Nordeste do Brasil com os candidatos do Partido dos Trabalhadores ao cargo de Presidente da República desde a redemocratização. O objetivo é entender a relação entre a opção de voto em candidatos desse partido e o desenvolvimento socioeconômico ao longo do tempo da região, levando em consideração também o programa Bolsa Família para tentar comprovar a sua racionalidade. Além disso, este trabalho faz um estudo de caso da votação da cidade de Viçosa do Ceará para exemplificar o fato de que a indução do voto para candidatos de âmbito federal por representantes locais não é mais a regra da região e sim a exceção. A investigação usa análise bibliográfica, histórica e métodos de análise estatística, principalmente, técnicas de análise espacial.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Os perfis tubulares sem costura são utilizados em diversos países, principalmente devido às vantagens associadas à estética a sua elevada resistência à torção, cargas axiais e efeitos combinados. Canadá, Inglaterra, Alemanha e Holanda utilizam de forma veemente estas estruturas e possuem produção contínua e industrializada com alto nível de desenvolvimento tecnológico. O Brasil, porém, se limitava praticamente ao uso destes perfis nas coberturas espaciais. Devido ao aumento da utilização desses tipos de estruturas, fez-se necessário o aprofundamento dos estudos com métodos de análise coerentes para utilização de perfis tubulares, principalmente em relação às ligações, pois são consideradas regiões vulneráveis neste tipo de estrutura. Para atender a necessidade de normatização deste procedimento desenvolveu-se uma norma brasileira específica para o dimensionamento de estruturas em perfis tubulares. Considerando esta perspectiva, este trabalho apresenta uma análise de ligações tipo T com reforço tipo chapa com perfis tubulares circulares (CHS) para o banzo e para o montante efetuada com base na norma europeia, Eurocode 3, no CIDECT, na NBR 16239:2013 e ISO 14346. Desenvolveu-se no programa Ansys um modelo de elementos finitos para cada tipo de ligação analisada, calibrado e validado com resultados experimentais e numéricos existentes na literatura. Verificou-se a influência da compressão atuante no montante no comportamento global das ligações. As não-linearidades físicas e geométricas foram incorporadas aos modelos a fim de se mobilizar totalmente a capacidade resistente desta ligação. A nãolinearidade do material foi considerada através do critério de plastificação de von Mises através da lei constitutiva tensão versus deformação bilinear de forma a exibir um comportamento elasto-plástico com encruamento. A não-linearidade geométrica foi introduzida no modelo através da Formulação de Lagrange Atualizada. A análise dos esforços resistentes obtidos em comparação com os resultados do modelo numérico, apresentaram valores a favor da segurança no cálculo utilizando as equações de dimensionamento. Por fim um estudo para fatores de correção das equações de dimensionamento foi também proposto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tese de dout., Ciências Agrárias (Protecção de Plantas), Unidade de Ciências e Tecnologias Agrárias, Univ. do Algarve, 1994

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Orientado por Mestre Anabela Ribeiro e Prof. Doutora Clara Ribeiro

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A Sociedade Europeia de Pesquisa do Sono realizou muito recentemente um estudo, onde mostrou que a prevalência média de adormecimento ao volante nos últimos 2 anos foi de 17%. Além disto, tem sido provado por todo o mundo que a sonolência durante a condução é uma das principais causas de acidentes de trânsito. Torna-se assim conveniente, o desenvolvimento de sistemas que analisem a suscetibilidade de um determinado condutor para adormecer no trânsito, bem como de ferramentas que monitorem em tempo real o estado físico e mental do condutor, para alertarem nos momentos críticos. Apesar do estudo do sono se ter iniciado há vários anos, a maioria das investigações focaram-se no ciclo normal do sono, estudando os indivíduos de forma relaxada e de olhos fechados. Só mais recentemente, têm surgido os estudos que se focam nas situações de sonolência em atividade, como _e o caso da condução. Uma grande parte Dos estudos da sonolência em condução têm utilizado a eletroencefalografia (EEG), de forma a perceber se existem alterações nas diferentes bandas de frequência desta, que possam indicar o estado de sonolência do condutor. Além disso, a evolução da sonolência a partir de alterações no piscar dos olhos (que podem ser vistas nos sinais EEG) também tem sido alvo de grande pesquisa, tendo vindo a revelar resultados bastante promissores. Neste contexto e em parceria com a empresa HealthyRoad, esta tese está integrada no projeto HealthyDrive, que visa o desenvolvimento de um sistema de alerta e deteção de sinais de fadiga e sonolência nos condutores de veículos automóveis. A contribuição desta tese no projeto prendeu-se com o estudo da sonolência dos indivíduos em condução a partir de sinais EEG, para desta forma investigar possíveis indicadores dos diferentes níveis desta que possam ser utilizados pela empresa no projeto. Foram recolhidos e analisados 17 sinais EEG de indivíduos em simulação de condução. Além disso foram desenvolvidos dois métodos de análise destes sinais: O primeiro para a deteção e análise dos piscar de olhos a partir de EEG, o segundo para análise do espetro de potência. Ambos os métodos foram utilizados para analisar os sinais recolhidos e investigar que tipo de relação existe entre a sonolência do condutor e as alterações nos piscares dos olhos, bem como as alterações do espetro do EEG. Os resultados mostraram uma correlação entre a duração do piscar de olhos e a sonolência do condutor. Com o aumento da sonolência velicou-se um aumento da duração do piscar, desencadeado principalmente pelo aumento na duração de fecho, que chegou aos 51.2%. Em relação ao espectro de potência, os resultados sugerem que a potência relativa de todas as bandas analisadas fornecem informações relevantes sobre a sonolência do condutor. Além disso, o parâmetro (_+_)/_ demostrou estar relacionado com variações da sonolência, diminuindo com o seu avanço e aumentando significativamente (111%) no instante em que os condutores adormeceram.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A presente dissertação tem como objectivo efectuar o estudo do comportamento térmico de estruturas com betão em massa através do Método de Schmidt e compará-lo com outros métodos. A análise do comportamento do betão reveste-se de extrema importância em diversos domínios, de entre os quais se pode referir o que visa evitar a fissuração de origem térmica decorrente do calor de hidratação. Pelo motivo enunciado torna-se necessária dispor de metodologias de análise que requerem a mobilização de meios de cálculo. Existem diferentes métodos para o cálculo das temperaturas: uns mais simples, outros mais complexos, uns mais rápidos, outros mais demorados, uns mais onerosos e outros mais económicos. O conhecimento dos vários métodos permite adequá-los à especificidade de cada obra. Para realizar os vários procedimentos pode recorrer-se a programas informáticos de cálculo, como por o Excel ou utilizar Software Específico. Nesta dissertação apresenta-se uma metodologia de cálculo baseada no Método de Schmidt e faz-se a comparação com o Método de Solução Analítica. Utiliza-se também este Método no cálculo das temperaturas das várias camadas de uma barragem. O Método de Schmidt é ainda aplicado a um caso real de uma barragem da Tailândia construída em Betão Compactado com Cilindros e os resultados obtidos são comparados com outros Métodos de Análise Numérica de Barragens.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O grupo das mulheres trabalhadoras do sexo (MTS) é reconhecido como uma populaçãode maior risco à infecção pelo HIV, tanto pela prevalência elevada, como por suavulnerabilidade social como pelos fatores relacionados à própria atividade profissional. Porém, arealização de estudos nos subgrupos de maior risco ao HIV mediante estratégias convencionaisde amostragem é, em geral, problemática por essas populações possuírem pequena magnitudeem termos populacionais e por estarem vinculados a comportamentos estigmatizados ouatividades ilegais. Em 1997, foi proposto um método de amostragem probabilística parapopulações de difícil acesso denominado Respondent-Driven Sampling (RDS). O método éconsiderado como uma variante da amostragem em cadeia e possibilita a estimação estatísticados parâmetros de interesse. Na literatura internacional, para análise de dados coletados porRDS, muitos autores têm utilizado técnicas estatísticas multivariadas tradicionais, sem levar emconta a estrutura de dependência das observações, presente nos dados coletados por RDS.A presente tese tem por objetivo contribuir para suprir informações sobre as práticas derisco relacionadas ao HIV entre as mulheres trabalhadoras do sexo (MTS) com odesenvolvimento de método estatístico para análise de dados coletados com o método deamostragem RDS. Com tal finalidade, foram utilizadas as informações coletadas na PesquisaCorrente da Saúde realizada em dez cidades brasileiras, com 2.523 MTS recrutadas por RDS,entre os anos de 2008 e 2009. O questionário foi autopreenchido e incluiu módulos sobrecaracterísticas da atividade profissional, práticas sexuais, uso de drogas, testes periódicos deHIV, e acesso aos serviços de saúde.Primeiramente, foram descritos alguns pressupostos do RDS e todas as etapas deimplantação da pesquisa. Em seguida, foram propostos métodos de análise multivariada, considerando o RDS como um desenho complexo de amostragem.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta pesquisa, desenvolvida sob forma de estudo de caso, teve como objetivo verificar a aplicabilidade de modelos e de métodos de análise estratégica para compreender e orientar o processo de inteligência competitiva numa empresa. A empresa selecionada pertence ao segmento alimentício do setor de candies. A pesquisa envolveu cinco etapas: a) levantamento de métodos de análise e contato com o setor; b) conhecimento da empresa; c) conhecimento do ambiente concorrencial; d) aplicação dos modelos de análise e coleta de informações; e) validação interna dos procedimentos metodológicos. Como resultado foram identificadas, as principais variáveis do ambiente concorrencial, as variáveis sobre as quais a empresa deverá aprimorar seu processo de monitoramento e a necessidade de distribuir internamente as informações capturadas. A validação interna, realizada com o grupo diretivo da empresa, permite considerar que a metodologia é pertinente ao objeto estudado e aporta informações e conhecimentos consideráveis às fases preliminares da implantação do processo de inteligência competitiva em pequenas e médias empresas (PMEs).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Empresas mantêm estoques como forma de antecipar a necessidade do cliente, usufruindo, assim, de vantagem competitiva. No entanto, há custos associados a esses estoques, devendo haver um balanceamento em relação ao diferencial que a sua existência pode trazer. O aumento dos níveis de competitividade no mercado obriga as companhias a diminuírem seus custos, reduzindo, pois, parte de seu estoque, podendo provocar perdas de vendas por falta de mercadoria. O desafio é prever com a maior precisão possível qual a quantidade requerida de cada produto e o momento certo em que o mesmo será necessário. É nesse sentido que a Análise e Previsão de Demanda vem sendo utilizada como ferramenta para diminuir a distância entre a necessidade e a disponibilidade de estoque. Esta dissertação descreve as vantagens competitivas da manutenção do estoque e os custos a ele associados, bem como os tipos de demanda, além dos métodos de Análise e Previsão de Demanda como forma de minimizar custos, melhorando o nível e a disponibilidade de estoque. Para tanto, foi desenvolvido um estudo de caso em uma empresa do ramo comercial com o propósito de validar as técnicas descritas para futura utilização em todas as linhas e marcas de produtos comercializados pela companhia estudada.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.