934 resultados para Método dos Mínimos Quadrados Ordinários


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos escritos através dos conceitos da Mecânica do Dano no Contínuo representam atualmente uma alternativa consistente para a simulação numérica do comportamento de estruturas constituídas por materiais quase frágeis, onde a perda de rigidez em função da fissuração crescente é o fator preponderante da resposta não-linear de seus elementos estruturais. No entanto, modelos de dano apresentam forte dependência de parâmetros internos usados para descrever os critérios e evolução das variáveis de dano, que devem ser calibrados adequadamente para uma resposta mecânica coerente da estrutura. Neste contexto, o artigo mostra um estudo sobre a calibração de parâmetros do modelo de dano de Mazars e sua aplicação na análise numérica de vigas e pórticos planos em concreto armado. O Método dos Mínimos Quadrados é adotado para resolver o problema, em conjunto com a técnica de Gauss-Newton. Em virtude da ausência de resultados experimentais para diversas classes de resistência do concreto, como referência para o processo de calibração, são adotados alguns modelos constitutivos teóricos tanto à tração quanto à compressão. Esse processo de calibração de parâmetros é incorporado a um modelo mecânico em elementos finitos para análise de barras em concreto armado, com a consideração conjunta dos mecanismos complementares de resistência ao cisalhamento, como efeito de pino, armadura transversal e engrenamento de agregados. Uma lei constitutiva exponencial para o decaimento da resistência à tração do concreto é proposta com o objetivo de simular o comportamento do tipo tension softening do material. Testes de simulação envolvendo o modelo proposto foram realizados, comparando-se com resultados experimentais e numéricos mostrando a boa precisão e capacidade de obtenção de cargas últimas em estruturas de barras em concreto armado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciências Ambientais - Sorocaba

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vigas são elementos estruturais encontrados na maioria das construções civis. Dentre os materiais de engenharia, destaca-se a madeira, por ter resistência mecânica satisfatória aliada a baixa densidade. A madeira roliça apresenta-se como boa solução na confecção de vigas, uma vez que não precisa ser processada, como é o caso da madeira serrada. O projeto de elementos estruturais de madeira requer o conhecimento de suas propriedades físicas e mecânicas, obtidas segundo as premissas de documentos normativos. Em se tratando da madeira roliça, os documentos normativos nacionais que tratam da determinação das propriedades de resistência e rigidez estão vigentes há mais de vinte anos sem revisão técnica. De forma geral, tanto as normas nacionais como as internacionais idealizam geometria troncocônica para as peças roliças de madeira, implicando equações simplificadas incapazes de prever a influência das irregularidades da forma na determinação do módulo de elasticidade longitudinal. Este trabalho objetiva avaliar a influência das irregularidades da geometria em peças roliças de madeira Corymbia citriodora e Pinus caribaea no cálculo do módulo de elasticidade longitudinal. Para tanto, utilizou-se do ensaio de flexão estática a três pontos, considerando também um modelo matemático simplificado, assumindo seção circular constante para a forma do elemento. As irregularidades das peças são consideradas nos modelos numéricos, constituídos de elementos finitos de barra e tridimensionais. Os resultados encontrados revelam equivalência estatística entre os módulos de elasticidade para ambas as formas de cálculo, indicando ser plausível a consideração de seção circular constante para as peças de madeira aqui avaliadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: Propôs-se analisar a relação espacial dos óbitos e internações evitáveis por TB com indicadores sociais em Ribeirão Preto/SP. Métodos: Trata-se de um estudo ecológico em que foram considerados os casos de óbitos e internações, tendo como causa básica do óbito e motivo principal da internação, a tuberculose (CID A15.0 a A19.9), ocorridos na zona urbana de Ribeirão Preto e registrados respectivamente no Sistema de Informação sobre Mortalidade e no Sistema de Internação Hospitalar do Sistema Único de Saúde no período de 2006 a 2012. Foi realizada a análise univariada das variáveis sociodemográficas e operacionais dos casos investigados. Para construção dos indicadores sociais utilizou-se a análise de componentes principais, sendo selecionados dados das áreas de abrangência do município, considerando os dados do Censo Demográfico de 2010. A geocodificação dos casos foi processada no TerraView versão 4.2.2. Recorreu-se à regressão linear múltipla, pelo método dos mínimos quadrados e à regressão espacial para análise da relação de dependência espacial entre os indicadores sociais e as taxas de mortalidade e de internações por TB. A autocorrelação nos resíduos da regressão linear múltipla foi testada por meio do Teste Global de Moran, as análises foram realizadas considerando os softwares Arcgis-versão 10.1, Statistica versão 12.0, OpenGeoDa versão 1.0 e R versão 3.2.3. Para o diagnóstico do melhor modelo de regressão espacial, utilizou-se o teste Multiplicador de Lagrange. Em todos os testes, foi fixado o nivel de significancia de alfa em 5% (p< 0,05). Resultados: Foram registrados 50 casos de óbitos e 196 casos de internações por TB. A maioria dos casos registrados em ambos os sistemas se deu em pessoas do sexo masculino (n=41; 82%/n=146; 74,5%) e com a forma clínica pulmonar (n=44; 80,0%/n=138; 67,9%). Na construção dos indicadores sociais, três novas variáveis surgiram, apresentando respectivamente variância total de 46,2%, 18,7% e 14,6% sendo denominadas como indicadores de renda, desigualdade social e equidade social. Na modelagem para verificar relação espacial entre os óbitos e os indicadores sociais observou-se que a equidade social foi indicador estatisticamente significativo (p=0,0013) com relação negativa a mortalidade, sendo o Modelo da Defasagem Espacial o melhor método para testar a dependência espacial, com valor de ? (rho) estimado em 0,53 e altamente significativo (p=0,0014). Já na modelagem da relação espacial entre as internações por tuberculose e os indicadores sociais, o indicador de renda apresentou-se estatisticamente significativo (p=0,015) com relação negativa a internação e o melhor método para testar a dependência espacial também foi o Modelo da Defasagem Espacial com valor de ? (rho) estimado em 0,80 e altamente significativo (p<0,0001). Conclusão: O estudo contribuiu no avanço do conhecimento de que a mortalidade e as internações por tuberculose são eventos socialmente determinados, o que sugere investimento por parte da gestão

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvida uma investigação experimental com o objetivo de ampliar o conhecimento sobre caracterização tecnológica de materiais de construção, com ênfase no aspecto da alternabilidade. Foram estudadas rochas de 15 localidades representando os seguintes 11 tipos litológicos: basalto compacto, basalto vesicular, basalto microvesicular, diabásio, quartzito, calcário, granito, charnockito, piroxenito, migmatitoe arenito. Os ensaios de laboratório foram conduzidos em corpos de prova cilídricos, cúbicos e britados obtidos a partir das amostras enviadas, para determinação dos seguintes índices: massa específica aparente, porosidade aparente, absorção, abrasão Los Angeles, resistência ao impacto em corpos de prova regulares, resistência ao impacto Treton, resistência ao esmagamento, resistência à compressão simples axial, índice escleromético, resistência ao desgaste a úmido e durabilidade. Foram executados quase 3000 ensaios para obtenção de índices fisicomecânicos e de durabilidade, por um período de aproximadamente 2 anos. Todos os ensaios foram efetuados em amostras inicialmente lavadas, secas em estufa a 100-110°C por aproximadamente 10 horas e posteriormente, esfriadas à temperatura ambiente durante pelo menos 2-3 horas, antes de cada ensaio. Os seguintes ensaios novos foram introduzidos: índice esclerométrico, impacto em corpos de prova moldados e desgaste úmido, com discussões a respeito de sua aplicabilidade. Os resultados de cada grupo de corpos de prova em diferentes rochas, para estes ensaios novos, foram submetidos à análise estatística para obtenção de valores médios e coeficientes de variação para determinar a precisão e o número de ensaios necessários para cada uma destas propriedades. Os resultados médios foram submetidos à correlação estatística e análises de regressão pelo método dos mínimos quadrados, para os quais foram determinados os coeficientes de correlação ) simples, erros padrão de estimativa e relações funcionais para cada par selecionado de variáveis. Estas relações foram apresentadas graficamente para comparação visual com os correspondentes resultados de ensaios. A partir dos resultados obtidos quanto à precisão e reprodutibilidade dos ensaios e verificada sua aplicabilidade, foram elaboradas propostas para métodos de ensaios. Os ensaios de durabilidade, que constituem a segunda parte deste trabalho, foram executados nas rochas acima mencionadas, cujas amostras foram submetidas a ciclos sucessivos de, saturação em solução de sulfato e secagem em estufa, saturação em etilenoglicol e secagem em estufa, saturação em água e secagem em estufa, lixiviação contínua no exterior Soxhlet e exposição natural, em 2 séries de ensaios. A primeira série consistiu na comparação de processos de alteração e a segunda série, na investigação do comportamento mecânico dos materiais rochosos face a diferentes condições fisicoquímicas de alteração artificial e natural. P parâmetro mecânico utilizado neste caso, foi a resistência ao impacto Treton. Os resultados obtidos na primeira série, foram submetidos à análise de regressão, obtendo-se gráficos de comparação de linhas teóricas de velocidades de alteração pelos diferentes processos e, gráficos mostrando a influência do fator de escala no processo de alteração. Os resultados da segunda série de ensaios, permitiram estabelecer 2 parâmetros numéricos: queda percentual de resistência mecânica e coeficiente de alterabilidade específica, que refletem a suscetibilidade das rochas a estes diferentes processos de alteração. A correlação estatística, entre estes parâmetros numéricos da alteração e a relação entre as tensões máximas de ruptura, no estado saturado e no estado seco, do ensaio de compressão simples axial, indicou ser esta relação, um índice promissor da alterabilidade de rochas. Finalmente, discutida a validade ) destes índices, tendo em vista os resultados encontrados e a ausência na literatura de procedimentos adequados, que permitam classificar as rochas quanto ao comportamento mecânico face à alteração natural ou artificial, foram elaboradas propostas de métodos de ensaios, que poderão preencher esta lacuna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação, Mestrado, Contabilidade e Fiscalidade, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2016