13 resultados para Método dos mínimos quadrados

em Biblioteca de Teses e Dissertações da USP


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: A importância da investigação da qualidade de vida de crianças está diretamente relacionada ao fato de que muitos problemas na vida adulta têm sua origem na infância. Objetivo: analisar a contribuição da percepção do relacionamento familiar e do estado nutricional sobre a qualidade de vida de crianças do município de Indaiatuba. Metodologia: Na etapa 1 foi realizado o estudo de validade do instrumento APGAR Familiar adaptado à crianças de 7 a 11 anos, utilizando como medida de confiabilidade a técnica do Teste-Reteste e para a avaliação da validade convergente foi utilizada a Escala de Avaliação de Qualidade de Vida Infantil. Na etapa 2 foram avaliados os determinantes da Qualidade de Vida de crianças sob aspectos familiares, estado nutricional e socioeconômicos e demográficos. Os dados foram analisados por meio de Regressão Linear Múltipla com método dos Mínimos Quadrados Ordinários. Resultados: Na etapa 1 a análise de confiabilidade obteve a correlação de 0,764 do coeficiente de Spearman-Brown. Na análise de Validade Convergente o coeficiente de correlação de Rô de Spearman entre os escores dos dois instrumentos foi de 0,570 (p<0,01). Na etapa 2 foi estimado um modelo dos determinantes da qualidade de vida a partir de uma amostra de 1028 crianças de 7 a 11 anos de ambos os sexos. As variáveis independentes foram capazes de explicar a Qualidade de Vida de crianças a uma significância de 1% (Z = 8,417), sendo o R² ajustado de 0,104. A idade da criança e a percepção do relacionamento familiar foram as variáveis estatisticamente significativas, ao passo que o estado nutricional, o tamanho da família, o sexo da criança, a classe social e a escolaridade do responsável, não foram estatisticamente significantes. Conclusão: O instrumento APGAR Familiar apresentou índices preliminares de validade e precisão; a idade e o relacionamento familiar foram as variáveis que explicaram a qualidade de vida percebida sob a perspectiva subjetiva de bem-estar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: Propôs-se analisar a relação espacial dos óbitos e internações evitáveis por TB com indicadores sociais em Ribeirão Preto/SP. Métodos: Trata-se de um estudo ecológico em que foram considerados os casos de óbitos e internações, tendo como causa básica do óbito e motivo principal da internação, a tuberculose (CID A15.0 a A19.9), ocorridos na zona urbana de Ribeirão Preto e registrados respectivamente no Sistema de Informação sobre Mortalidade e no Sistema de Internação Hospitalar do Sistema Único de Saúde no período de 2006 a 2012. Foi realizada a análise univariada das variáveis sociodemográficas e operacionais dos casos investigados. Para construção dos indicadores sociais utilizou-se a análise de componentes principais, sendo selecionados dados das áreas de abrangência do município, considerando os dados do Censo Demográfico de 2010. A geocodificação dos casos foi processada no TerraView versão 4.2.2. Recorreu-se à regressão linear múltipla, pelo método dos mínimos quadrados e à regressão espacial para análise da relação de dependência espacial entre os indicadores sociais e as taxas de mortalidade e de internações por TB. A autocorrelação nos resíduos da regressão linear múltipla foi testada por meio do Teste Global de Moran, as análises foram realizadas considerando os softwares Arcgis-versão 10.1, Statistica versão 12.0, OpenGeoDa versão 1.0 e R versão 3.2.3. Para o diagnóstico do melhor modelo de regressão espacial, utilizou-se o teste Multiplicador de Lagrange. Em todos os testes, foi fixado o nivel de significancia de alfa em 5% (p< 0,05). Resultados: Foram registrados 50 casos de óbitos e 196 casos de internações por TB. A maioria dos casos registrados em ambos os sistemas se deu em pessoas do sexo masculino (n=41; 82%/n=146; 74,5%) e com a forma clínica pulmonar (n=44; 80,0%/n=138; 67,9%). Na construção dos indicadores sociais, três novas variáveis surgiram, apresentando respectivamente variância total de 46,2%, 18,7% e 14,6% sendo denominadas como indicadores de renda, desigualdade social e equidade social. Na modelagem para verificar relação espacial entre os óbitos e os indicadores sociais observou-se que a equidade social foi indicador estatisticamente significativo (p=0,0013) com relação negativa a mortalidade, sendo o Modelo da Defasagem Espacial o melhor método para testar a dependência espacial, com valor de ? (rho) estimado em 0,53 e altamente significativo (p=0,0014). Já na modelagem da relação espacial entre as internações por tuberculose e os indicadores sociais, o indicador de renda apresentou-se estatisticamente significativo (p=0,015) com relação negativa a internação e o melhor método para testar a dependência espacial também foi o Modelo da Defasagem Espacial com valor de ? (rho) estimado em 0,80 e altamente significativo (p<0,0001). Conclusão: O estudo contribuiu no avanço do conhecimento de que a mortalidade e as internações por tuberculose são eventos socialmente determinados, o que sugere investimento por parte da gestão

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvida uma investigação experimental com o objetivo de ampliar o conhecimento sobre caracterização tecnológica de materiais de construção, com ênfase no aspecto da alternabilidade. Foram estudadas rochas de 15 localidades representando os seguintes 11 tipos litológicos: basalto compacto, basalto vesicular, basalto microvesicular, diabásio, quartzito, calcário, granito, charnockito, piroxenito, migmatitoe arenito. Os ensaios de laboratório foram conduzidos em corpos de prova cilídricos, cúbicos e britados obtidos a partir das amostras enviadas, para determinação dos seguintes índices: massa específica aparente, porosidade aparente, absorção, abrasão Los Angeles, resistência ao impacto em corpos de prova regulares, resistência ao impacto Treton, resistência ao esmagamento, resistência à compressão simples axial, índice escleromético, resistência ao desgaste a úmido e durabilidade. Foram executados quase 3000 ensaios para obtenção de índices fisicomecânicos e de durabilidade, por um período de aproximadamente 2 anos. Todos os ensaios foram efetuados em amostras inicialmente lavadas, secas em estufa a 100-110°C por aproximadamente 10 horas e posteriormente, esfriadas à temperatura ambiente durante pelo menos 2-3 horas, antes de cada ensaio. Os seguintes ensaios novos foram introduzidos: índice esclerométrico, impacto em corpos de prova moldados e desgaste úmido, com discussões a respeito de sua aplicabilidade. Os resultados de cada grupo de corpos de prova em diferentes rochas, para estes ensaios novos, foram submetidos à análise estatística para obtenção de valores médios e coeficientes de variação para determinar a precisão e o número de ensaios necessários para cada uma destas propriedades. Os resultados médios foram submetidos à correlação estatística e análises de regressão pelo método dos mínimos quadrados, para os quais foram determinados os coeficientes de correlação ) simples, erros padrão de estimativa e relações funcionais para cada par selecionado de variáveis. Estas relações foram apresentadas graficamente para comparação visual com os correspondentes resultados de ensaios. A partir dos resultados obtidos quanto à precisão e reprodutibilidade dos ensaios e verificada sua aplicabilidade, foram elaboradas propostas para métodos de ensaios. Os ensaios de durabilidade, que constituem a segunda parte deste trabalho, foram executados nas rochas acima mencionadas, cujas amostras foram submetidas a ciclos sucessivos de, saturação em solução de sulfato e secagem em estufa, saturação em etilenoglicol e secagem em estufa, saturação em água e secagem em estufa, lixiviação contínua no exterior Soxhlet e exposição natural, em 2 séries de ensaios. A primeira série consistiu na comparação de processos de alteração e a segunda série, na investigação do comportamento mecânico dos materiais rochosos face a diferentes condições fisicoquímicas de alteração artificial e natural. P parâmetro mecânico utilizado neste caso, foi a resistência ao impacto Treton. Os resultados obtidos na primeira série, foram submetidos à análise de regressão, obtendo-se gráficos de comparação de linhas teóricas de velocidades de alteração pelos diferentes processos e, gráficos mostrando a influência do fator de escala no processo de alteração. Os resultados da segunda série de ensaios, permitiram estabelecer 2 parâmetros numéricos: queda percentual de resistência mecânica e coeficiente de alterabilidade específica, que refletem a suscetibilidade das rochas a estes diferentes processos de alteração. A correlação estatística, entre estes parâmetros numéricos da alteração e a relação entre as tensões máximas de ruptura, no estado saturado e no estado seco, do ensaio de compressão simples axial, indicou ser esta relação, um índice promissor da alterabilidade de rochas. Finalmente, discutida a validade ) destes índices, tendo em vista os resultados encontrados e a ausência na literatura de procedimentos adequados, que permitam classificar as rochas quanto ao comportamento mecânico face à alteração natural ou artificial, foram elaboradas propostas de métodos de ensaios, que poderão preencher esta lacuna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The increasing economic competition drives the industry to implement tools that improve their processes efficiencies. The process automation is one of these tools, and the Real Time Optimization (RTO) is an automation methodology that considers economic aspects to update the process control in accordance with market prices and disturbances. Basically, RTO uses a steady-state phenomenological model to predict the process behavior, and then, optimizes an economic objective function subject to this model. Although largely implemented in industry, there is not a general agreement about the benefits of implementing RTO due to some limitations discussed in the present work: structural plant/model mismatch, identifiability issues and low frequency of set points update. Some alternative RTO approaches have been proposed in literature to handle the problem of structural plant/model mismatch. However, there is not a sensible comparison evaluating the scope and limitations of these RTO approaches under different aspects. For this reason, the classical two-step method is compared to more recently derivative-based methods (Modifier Adaptation, Integrated System Optimization and Parameter estimation, and Sufficient Conditions of Feasibility and Optimality) using a Monte Carlo methodology. The results of this comparison show that the classical RTO method is consistent, providing a model flexible enough to represent the process topology, a parameter estimation method appropriate to handle measurement noise characteristics and a method to improve the sample information quality. At each iteration, the RTO methodology updates some key parameter of the model, where it is possible to observe identifiability issues caused by lack of measurements and measurement noise, resulting in bad prediction ability. Therefore, four different parameter estimation approaches (Rotational Discrimination, Automatic Selection and Parameter estimation, Reparametrization via Differential Geometry and classical nonlinear Least Square) are evaluated with respect to their prediction accuracy, robustness and speed. The results show that the Rotational Discrimination method is the most suitable to be implemented in a RTO framework, since it requires less a priori information, it is simple to be implemented and avoid the overfitting caused by the Least Square method. The third RTO drawback discussed in the present thesis is the low frequency of set points update, this problem increases the period in which the process operates at suboptimum conditions. An alternative to handle this problem is proposed in this thesis, by integrating the classic RTO and Self-Optimizing control (SOC) using a new Model Predictive Control strategy. The new approach demonstrates that it is possible to reduce the problem of low frequency of set points updates, improving the economic performance. Finally, the practical aspects of the RTO implementation are carried out in an industrial case study, a Vapor Recompression Distillation (VRD) process located in Paulínea refinery from Petrobras. The conclusions of this study suggest that the model parameters are successfully estimated by the Rotational Discrimination method; the RTO is able to improve the process profit in about 3%, equivalent to 2 million dollars per year; and the integration of SOC and RTO may be an interesting control alternative for the VRD process.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O microrreator faz parte de conjunto de dispositivos de uma nova e promissora tecnologia, que podem ser chamados de micro fabricados, atuante em campos como a da química, biológica, farmacêutica, engenharia química e biotecnologia. Trata-se de um dispositivo que possibilita reação química, tais como os reatores convencionais, mas com dimensões menores, com canais na escala micrométrica. A tecnologia de miniaturização de dispositivos para reações químicas vem se expandindo promovendo uma importante evolução, com microssistemas que abrange dispositivos mais eficazes, com configuração e geometrias específicas e menor consumo de energia, onde reações com elevadas taxas de transporte podem ser usadas para muitas finalidades diferentes, tais como, reações rápidas, mistura, reações sensíveis à temperatura, temperatura de homogeneização, ou até mesmo precipitação de nano partículas. Devido sua escala ser extremamente reduzida em relação à escala macro, oferecem um sistema que permite uma investigação do processo em um curto espaço de tempo, sendo muito útil para o rastreio de substratos, enzimas, condições de reação, bem como a determinação de parâmetros cinéticos. O presente trabalho teve por objetivo estudar a biodegradação enzimática de 2,4,6-Triclorofenol, com a utilização das enzimas Lacase e Soybean Peroxidase em microrreator da Syrris com volume de 250 ?l, que permite o estudo de cinéticas muito rápidas. Para as análises de degradação utilizou-se duas enzimas, a Lacase em concentrações de 0,05; 0,1 e 0,2 mg/ml; e a Soybean Peroxidase em concentrações de 0,0005; 0,001 e 0,002 mg/ml com a adição de Peróxido de Hidrogênio. Através dos ensaios realizados obteve-se dados experimentais da reação enzimática, possibilitando a verificação da taxa inicial de reação e sua cinética. Posteriormente, realizou-se as análises em simulação utilizando os dados experimentais, que através de um sistema de EDOs estimando inicialmente as constantes cinéticas k1, k2 e k3 usando a ferramenta ESTIMA, onde apresentaram duas respostas, uma resposta típica de mínimos quadrados, e a outra resposta que a velocidade inicial, que foi melhor representada pelos parâmetros obtidos. O método empregado na degradação do substrato, o microrreator mostrou-se eficiente, permitindo a detecção de baixo consumo de substrato para a determinação da taxa inicial, em curto tempo de residência. Perante os ensaios realizados com Lacase e Soybean Peroxidase, o microrreator é também um equipamento eficaz na repetitividade e na reprodutibilidade dos dados obtidos em diferentes concentrações.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Estudo radiométrico em sedimentos com posição estratigráfica conhecida, das Bacias do Paraná e do Amazonas, permite estabelecer critérios de seleção de amostras e procedimentos experimentais adequados para a obtenção de idades significativas. Foram efetuadas 120 determinações Rb-Sr e 44 K-Ar. As idades K-Ar foram empregadas essencialmente para auxiliar a interpretação dos dados Rb-Sr. As interpretações Rb-Sr foram efetuadas mediante gráficos com linhas isócronas. Na avaliação estatística dos dados, o método usual dos mínimos quadrados, revelou-se deficiente na estimação dos parâmetros, em alguns exemplos testados. Na presente investigação, a melhor isócrona em cada caso foi definida levando-se em conta uma ponderação adequada para os pontos e uma correlação entre os erros específica e conveniente. A formação Ponta Grossa foi estudada em 8 amostras provenientes de testemunhos de 5 sondagens da Petrobrás S. A. na Bacia do Paraná. Os resultados obtidos em pelo menos 2 deles são concordantes com a idade estratigráfica. Nos outros 2 poços, apesar dos poucos dados, as isócronas mostram uma possível concordância, indicando que a diagênese teria ocorrido logo após a sedimentação marinha. A formação Rio Bonito, estudada em 8 amostras do poço TV-4-SC, apresentou 3 isócronas aproximadamente paralelas, com idades mais ou menos semelhantes e concordantes com a idade estratigráfica. Tal comportamento indicaria uma homogeneização isotópica mesmo entre as frações grosseiras. Dentre as amostras estudadas na Bacia do Paraná, os sedimentos da Formação Itararé foram os únicos que não puderam ser interpretados adequadamente. Isto evidenciou que as isócronas Rb-Sr devem ser restritas a rochas de apenas um determinado tipo litológico, quando examinamos Formações como a Itataré, de ambientes variados (fluvial, lacustre, glacial, marinho). A formação Trombetas foi estudada em 7 amostras de 2 poços localizados no Médio Amazonas. Ambas as isócronas obtidas, indicando idade ordoviciana-siluriana permitem supor que houve apenas uma homogeneização isotópica parcial após a deposição. Os dados podem ser considerados concordantes se forem levados em conta os erros experimentais das isócronas. As Formações Maecuru e Ereré foram estudadas em 6 amostras do poço MS-4-AM. A litologia desfavorável das 4 amostras da Formação Ereré (Membro Ariramba), levaram o autor a definir uma "isócrona mínima", cuja idade revelou-se próxima da admitida estratigraficamente. A Formação Maecuru (Membro Jatapu), estudada em 2 arenitos arcozianos, apesar do material não ser considerado satisfatório para datações, evidenciaram uma isócrona de referência cuja idade é compatível com a situação estratigráfica. A Formação Curuá foi analisada em 3 amostras do poço NA-1-PA. Tanto as rochas totais como as frações situaram-se sobre uma isócrona de referência cuja idade calculada apresentou concordância, com a idade estratigráfica, dentro do erro experimental. A boa correlação linear verificada leva a admitir uma diagênese precoce, acompanhada de equilíbrio entre os isótopos de Sr. A Formação Itaituba foi investigada em 7 amostras de 2 poços, situados um de cada lado do Alto de Purus. Os folhetos evidenciaram grande dispersão dos pontos sobre o diagrama Rb87/Sr86 x Sr87/Sr86, devida a teores variáveis de minerais detríticos difíceis de serem identificados petrograficamente. Novamente foi traçada uma "isócrona mínima" da qual participaram materiais calcíferos. As idades identicas, bem como a concordância com a idade estratigráfica da formação, parecem demonstrar a validade da técnica empregada. Os dados do presente trabalho indicam que rochas sedimentares podem ser datadas pelo método Rb-Sr, desde que sejam obedecidos alguns critérios importantes de seleção do material. Além disso devem ser empregadas técnicas apropriadas, tais como separação ) granulométrica de frações menores que 2 ou 4 μ, ou lixiaviação com HCl. As isócronas a serem traçadas, as quais indicariam a época da diagênese, devem incluir material de litologia semelhante, de um só ambiente de formação. As análises K-Ar podem servir como dados auxiliares, principalmente para avaliar a quantidade de material detrítico existente no sistema.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diferentes abordagens teóricas têm sido utilizadas em estudos de sistemas biomoleculares com o objetivo de contribuir com o tratamento de diversas doenças. Para a dor neuropática, por exemplo, o estudo de compostos que interagem com o receptor sigma-1 (Sig-1R) pode elucidar os principais fatores associados à atividade biológica dos mesmos. Nesse propósito, estudos de Relações Quantitativas Estrutura-Atividade (QSAR) utilizando os métodos de regressão por Mínimos Quadrados Parciais (PLS) e Rede Neural Artificial (ANN) foram aplicados a 64 antagonistas do Sig-1R pertencentes à classe de 1-arilpirazóis. Modelos PLS e ANN foram utilizados com o objetivo de descrever comportamentos lineares e não lineares, respectivamente, entre um conjunto de descritores e a atividade biológica dos compostos selecionados. O modelo PLS foi obtido com 51 compostos no conjunto treinamento e 13 compostos no conjunto teste (r² = 0,768, q² = 0,684 e r²teste = 0,785). Testes de leave-N-out, randomização da atividade biológica e detecção de outliers confirmaram a robustez e estabilidade dos modelos e mostraram que os mesmos não foram obtidos por correlações ao acaso. Modelos também foram gerados a partir da Rede Neural Artificial Perceptron de Multicamadas (MLP-ANN), sendo que a arquitetura 6-12-1, treinada com as funções de transferência tansig-tansig, apresentou a melhor resposta para a predição da atividade biológica dos compostos (r²treinamento = 0,891, r²validação = 0,852 e r²teste = 0,793). Outra abordagem foi utilizada para simular o ambiente de membranas sinápticas utilizando bicamadas lipídicas compostas por POPC, DOPE, POPS e colesterol. Os estudos de dinâmica molecular desenvolvidos mostraram que altas concentrações de colesterol induzem redução da área por lipídeo e difusão lateral e aumento na espessura da membrana e nos valores de parâmetro de ordem causados pelo ordenamento das cadeias acil dos fosfolipídeos. As bicamadas lipídicas obtidas podem ser usadas para simular interações entre lipídeos e pequenas moléculas ou proteínas contribuindo para as pesquisas associadas a doenças como Alzheimer e Parkinson. As abordagens usadas nessa tese são essenciais para o desenvolvimento de novas pesquisas em Química Medicinal Computacional.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.