18 resultados para Minimos quadrados
em Biblioteca de Teses e Dissertações da USP
Resumo:
A sociedade está cada vez mais exigente com relação à qualidade dos produtos consumidos e se preocupa com os benefícios para a saúde. Neste contexto, objetivou-se avaliar o efeito da inclusão de níveis de óleo de canola na dieta de vacas sobre amanteiga e muçarela, buscando produtos mais saudáveis para o consumo humano. Foram utilizadas 18 vacas Holandesas, em estágio intermediário de lactação, com produção média de 22 (± 4) Kg de leite/ dia, as quais foram distribuídas em dois quadrados latinos 3x3 contemporâneos e receberam as dietas experimentais: T1- Controle (0% de inclusão de óleo); T2- 3% de inclusão de óleo de canola e T3- 6% de inclusão de óleo de canola. O perfil lipídico foi determinado através de cromatografia gasosa, além da avaliação de qualidade nutricional, realizada através de equações utilizando os ácidos graxos obtidos no perfil lipídico, análises físico-químicas determinadas pela metodologia do Instituto Adolfo Lutz e análises microbiológicas. Houveram problemas durante processamento do leite, gerando alterações de tecnologia de fabricação do produto manteiga, obtendo-se outro produto, o creme de leite, ao invés de manteiga, além de prejuízos na qualidade microbiológicas do creme de leite e muçarela. A inclusão de óleo de canola na dieta em lactação reduziu quadraticamente os ácidos graxos de cadeia curta e proporcionou aumento quadrático dos ácidos graxos de cadeia longa, dos ácidos graxos insaturados e ácidos graxos monoinsaturados na muçarela. A relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) e a relação ômega-6/ômega-3, assim como os índices de aterogenicidade e trombogenicidade, na muçarela, reduziram linearmente 25,68%, 31,35%; 32,12% e 21,78%, respectivamente, quando comparando T1 e T3. No creme de leite, houve redução linear dos ácidos graxos de cadeia curta e média, bem como, os ácidos graxos saturados e a relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) em 41,07%; 23,82%; 15,91% e 35,59%, respectivamente, enquanto os ácidos graxos de cadeia longa, ácidos graxos insaturados e ácidos graxos monoinsaturados aumentaram linearmente 41,40%; 28,24% e 32,07%, nesta ordem, quando comparando T1 com T3. Os índices de aterogenicidade e trombogenicidade reduziram de forma linear, enquanto o índice h/H (razão ácidos graxos hipocolesterolêmicos e hipercolesterolêmicos) aumentou linearmente. A composição físico-química de ambos derivados e o rendimento da muçarela não apresentaram efeito significativo com a inclusão do óleo de canola, exceto a proteína bruta da muçarela que apresentou aumento linear e a gordura do creme de leite que apresentou efeito quadrático. As análises microbiológicas mostram contagens muito elevadas de microrganismos, sugerindo que os produtos não apresentam qualidade microbiológica, decorrente da ausência do processo de pasteurização do creme e da baixa eficiência do tratamento térmico aplicado ao leite destinado a produção da muçarela. Conclui-se que a adição de óleo de canola na dieta de vacas lactantes proporciona muçarela e creme de leite mais saudáveis para o consumo humano, pois apresentaram perfil lipídico mais rico em ácidos graxos insaturados, além da série ômega-3 e ácido oleico, entretanto, devido a problemas de processamento, estes produtos obtidos, não estão aptos ao consumo devido à ausência de qualidade microbiológica.
Resumo:
Introdução: A importância da investigação da qualidade de vida de crianças está diretamente relacionada ao fato de que muitos problemas na vida adulta têm sua origem na infância. Objetivo: analisar a contribuição da percepção do relacionamento familiar e do estado nutricional sobre a qualidade de vida de crianças do município de Indaiatuba. Metodologia: Na etapa 1 foi realizado o estudo de validade do instrumento APGAR Familiar adaptado à crianças de 7 a 11 anos, utilizando como medida de confiabilidade a técnica do Teste-Reteste e para a avaliação da validade convergente foi utilizada a Escala de Avaliação de Qualidade de Vida Infantil. Na etapa 2 foram avaliados os determinantes da Qualidade de Vida de crianças sob aspectos familiares, estado nutricional e socioeconômicos e demográficos. Os dados foram analisados por meio de Regressão Linear Múltipla com método dos Mínimos Quadrados Ordinários. Resultados: Na etapa 1 a análise de confiabilidade obteve a correlação de 0,764 do coeficiente de Spearman-Brown. Na análise de Validade Convergente o coeficiente de correlação de Rô de Spearman entre os escores dos dois instrumentos foi de 0,570 (p<0,01). Na etapa 2 foi estimado um modelo dos determinantes da qualidade de vida a partir de uma amostra de 1028 crianças de 7 a 11 anos de ambos os sexos. As variáveis independentes foram capazes de explicar a Qualidade de Vida de crianças a uma significância de 1% (Z = 8,417), sendo o R² ajustado de 0,104. A idade da criança e a percepção do relacionamento familiar foram as variáveis estatisticamente significativas, ao passo que o estado nutricional, o tamanho da família, o sexo da criança, a classe social e a escolaridade do responsável, não foram estatisticamente significantes. Conclusão: O instrumento APGAR Familiar apresentou índices preliminares de validade e precisão; a idade e o relacionamento familiar foram as variáveis que explicaram a qualidade de vida percebida sob a perspectiva subjetiva de bem-estar.
Resumo:
Diferentes abordagens teóricas têm sido utilizadas em estudos de sistemas biomoleculares com o objetivo de contribuir com o tratamento de diversas doenças. Para a dor neuropática, por exemplo, o estudo de compostos que interagem com o receptor sigma-1 (Sig-1R) pode elucidar os principais fatores associados à atividade biológica dos mesmos. Nesse propósito, estudos de Relações Quantitativas Estrutura-Atividade (QSAR) utilizando os métodos de regressão por Mínimos Quadrados Parciais (PLS) e Rede Neural Artificial (ANN) foram aplicados a 64 antagonistas do Sig-1R pertencentes à classe de 1-arilpirazóis. Modelos PLS e ANN foram utilizados com o objetivo de descrever comportamentos lineares e não lineares, respectivamente, entre um conjunto de descritores e a atividade biológica dos compostos selecionados. O modelo PLS foi obtido com 51 compostos no conjunto treinamento e 13 compostos no conjunto teste (r² = 0,768, q² = 0,684 e r²teste = 0,785). Testes de leave-N-out, randomização da atividade biológica e detecção de outliers confirmaram a robustez e estabilidade dos modelos e mostraram que os mesmos não foram obtidos por correlações ao acaso. Modelos também foram gerados a partir da Rede Neural Artificial Perceptron de Multicamadas (MLP-ANN), sendo que a arquitetura 6-12-1, treinada com as funções de transferência tansig-tansig, apresentou a melhor resposta para a predição da atividade biológica dos compostos (r²treinamento = 0,891, r²validação = 0,852 e r²teste = 0,793). Outra abordagem foi utilizada para simular o ambiente de membranas sinápticas utilizando bicamadas lipídicas compostas por POPC, DOPE, POPS e colesterol. Os estudos de dinâmica molecular desenvolvidos mostraram que altas concentrações de colesterol induzem redução da área por lipídeo e difusão lateral e aumento na espessura da membrana e nos valores de parâmetro de ordem causados pelo ordenamento das cadeias acil dos fosfolipídeos. As bicamadas lipídicas obtidas podem ser usadas para simular interações entre lipídeos e pequenas moléculas ou proteínas contribuindo para as pesquisas associadas a doenças como Alzheimer e Parkinson. As abordagens usadas nessa tese são essenciais para o desenvolvimento de novas pesquisas em Química Medicinal Computacional.
Resumo:
Objetivo: Propôs-se analisar a relação espacial dos óbitos e internações evitáveis por TB com indicadores sociais em Ribeirão Preto/SP. Métodos: Trata-se de um estudo ecológico em que foram considerados os casos de óbitos e internações, tendo como causa básica do óbito e motivo principal da internação, a tuberculose (CID A15.0 a A19.9), ocorridos na zona urbana de Ribeirão Preto e registrados respectivamente no Sistema de Informação sobre Mortalidade e no Sistema de Internação Hospitalar do Sistema Único de Saúde no período de 2006 a 2012. Foi realizada a análise univariada das variáveis sociodemográficas e operacionais dos casos investigados. Para construção dos indicadores sociais utilizou-se a análise de componentes principais, sendo selecionados dados das áreas de abrangência do município, considerando os dados do Censo Demográfico de 2010. A geocodificação dos casos foi processada no TerraView versão 4.2.2. Recorreu-se à regressão linear múltipla, pelo método dos mínimos quadrados e à regressão espacial para análise da relação de dependência espacial entre os indicadores sociais e as taxas de mortalidade e de internações por TB. A autocorrelação nos resíduos da regressão linear múltipla foi testada por meio do Teste Global de Moran, as análises foram realizadas considerando os softwares Arcgis-versão 10.1, Statistica versão 12.0, OpenGeoDa versão 1.0 e R versão 3.2.3. Para o diagnóstico do melhor modelo de regressão espacial, utilizou-se o teste Multiplicador de Lagrange. Em todos os testes, foi fixado o nivel de significancia de alfa em 5% (p< 0,05). Resultados: Foram registrados 50 casos de óbitos e 196 casos de internações por TB. A maioria dos casos registrados em ambos os sistemas se deu em pessoas do sexo masculino (n=41; 82%/n=146; 74,5%) e com a forma clínica pulmonar (n=44; 80,0%/n=138; 67,9%). Na construção dos indicadores sociais, três novas variáveis surgiram, apresentando respectivamente variância total de 46,2%, 18,7% e 14,6% sendo denominadas como indicadores de renda, desigualdade social e equidade social. Na modelagem para verificar relação espacial entre os óbitos e os indicadores sociais observou-se que a equidade social foi indicador estatisticamente significativo (p=0,0013) com relação negativa a mortalidade, sendo o Modelo da Defasagem Espacial o melhor método para testar a dependência espacial, com valor de ? (rho) estimado em 0,53 e altamente significativo (p=0,0014). Já na modelagem da relação espacial entre as internações por tuberculose e os indicadores sociais, o indicador de renda apresentou-se estatisticamente significativo (p=0,015) com relação negativa a internação e o melhor método para testar a dependência espacial também foi o Modelo da Defasagem Espacial com valor de ? (rho) estimado em 0,80 e altamente significativo (p<0,0001). Conclusão: O estudo contribuiu no avanço do conhecimento de que a mortalidade e as internações por tuberculose são eventos socialmente determinados, o que sugere investimento por parte da gestão
Resumo:
Silagens de milho são mais propensas à deterioração quando expostas ao ar. As leveduras assimiladoras de ácido lático são frequentemente os primeiros microrganismos a iniciar a deterioração aeróbia nas silagens. Alguns estudos reportam que silagem de milho aerobicamente instável está associada à redução no consumo, na produção de leite e depressão no teor de gordura do leite. Portanto, o objetivo deste estudo foi avaliar a influência de inoculação de leveduras (Pichia norvegensis) e a exposição ao ar por 48 horas sobre o valor nutritivo das silagens e o desempenho de vacas leiteiras. O milho foi colhido com 34% de MS, tratado sem (Controle) ou com P. norvegensis, na dose 1×105 ufc/g MV (Levedura) e armazenado silos tipo bolsa (40 t/silo). Após 123 dias de armazenamento, os silos foram abertos e a silagem foi fornecida para vacas leiteiras. Diariamente, as silagens foram retiradas e fornecidas imediatamente (Fresca) ou após 48 horas de exposição (Exposta). Vinte vacas Holandesas foram distribuídas em 5 quadrados latinos replicados 4×4, com períodos de 21 dias (15 d para adaptação + 6 d para amostragem). As dietas foram formuladas para conter: 53% silagem de milho, 8% caroço de algodão, 18% farelo de soja, 9,5% polpa cítrica, 9% milho seco moído e 2,5% premix vitamínico e mineral. Os quatro tratamentos foram assim constituídos: silagem controle fresca (CF), silagem controle exposta (CE), silagem inoculada com levedura fresca (LF) e silagem inoculada com levedura exposta (LE). A inoculação com levedura aumentou as perdas de matéria seca (P<0,001) e reduziu o tempo de estabilidade aeróbia (P=0,03) das silagens de milho. No ensaio de desempenho animal, reduziu a produção de leite corrigida para 3,5% de gordura (P=0,03) e a eficiência alimentar (ELL leite/CMS) (P<0,01), porém não alterou o teor de gordura do leite. Quanto aos efeitos da exposição ao ar por 48 horas, estes reduziram a concentração de ácido lático (P<0,001), que consequentemente aumentou o pH (P=0,004) das silagens, além de reduzir outros produtos de fermentação. A exposição também reduziu a produção de leite corrigido para gordura (P=0,02) e a eficiência alimentar (P=0,10). Nenhum tratamento alterou o consumo de MS. Houve tendência para redução da digestibilidade da MS e FDN e do NDT, quando as silagens foram expostas ao ar. A inoculação com leveduras e a exposição ao ar por 48 horas deprimem o desempenho animal através da redução no valor nutritivo das silagens de milho.
Resumo:
Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.
Resumo:
Este estudo possui duas partes distintas: 1. in vivo (randomizado e longitudinal) que teve como objetivo avaliar protocolos de tratamento para hipersensibilidade dentinária com laser de baixa potência (com diferentes dosagens), laser de alta potência e agente dessensibilizante, por um período de 12 e 18 meses; e 2. in vitro que teve como objetivo analisar a perda de estrutura de dois dentifrícios distintos (Colgate Total 12 e Colgate Pró Alívio) e analisar a permeabilidade dentinária dos tratamentos da etapa 01, associados aos dentifrícios, após diferentes ciclos de abrasão. Na parte in vivo, as lesões cervicais não cariosas de 32 voluntários, previamente submetidos aos critérios de elegibilidade ou exclusão, foram divididas em nove grupos (n=10): G1: Gluma Desensitizer (Heraeus Kulzer), G2: Laser de baixa potência com baixa dosagem (Photon Lase, DMC) (três pontos de irradiação vestibulares e um ponto apical: 30 mW, 10 J/cm2, 9 seg por ponto com o comprimento de onda de 810nm). Foram realizadas três sessões com um intervalo de 72 horas), G3: Laser de baixa potência com alta dosagem (um ponto cervical e um ponto apical: 100 mW, 90 J/cm2, 11 seg por ponto com o comprimento de onda de 810nm. Foram realizadas três sessões com um intervalo de 72 horas), G4: Laser de baixa potência com baixa dosagem + Gluma Desensitizer, G5: Laser de baixa potência com alta dosagem + Gluma Desensitizer, G6: Laser de Nd:YAG (Power LaserTM ST6, Lares Research®), em contato com a superfície dental: 1,0W, 10 Hz e 100 mJ, ? 85 J/cm2, com o comprimento de onda de 1064nm, G7: Laser de Nd:YAG + Gluma Desensitizer, G8: Laser de Nd:YAG + Laser de baixa potência com baixa dosagem, G9: Laser de Nd:YAG + Laser de baixa potência com alta dosagem. O nível de sensibilidade de cada voluntário foi avaliado através da escala visual analógica de dor (VAS) com auxílio do ar da seringa tríplice e exploração com sonda após 12 e 18 meses do tratamento. Na parte 02, in vitro, foram utilizados terceiros molares humanos não irrompidos e recém-extraídos. Todos foram limpos e tiveram suas raízes separadas das coroas. As raízes foram seccionadas em quadrados de dentina com dimensões de 4x4x2 mm, os quais foram embutidos em resina Epoxi e devidamente polidos até uma curvatura de 0,3 ?m, analisados em perfilometria ótica. Estes foram imersos em solução de EDTA 17% por 2min para abertura dos túbulos e armazenados em uma solução de Soro Fetal Bovino diluído em salina tamponada com fosfato. Os espécimes foram divididos aleatoriamente em 12 grupos (n=10) G1: Sem tratamento de superfície, sem dentifrício; G2: Nd:YAG/sem dentifrício; G3: Gluma/sem dentifrício; G4: Nd:YAG + Gluma/sem dentifrício; G5: Sem tratamento de superfície/Colgate Total 12; G6: Nd:YAG/Colgate Total 12; G7: Gluma/Colgate Total 12; G8: Nd:YAG + Gluma/Colgate Total 12; G9: Sem tratamento de superfície/Colgate Pró Alívio; G10: Nd:YAG/Colgate Pró Alívio; G11: Gluma/Colgate Pró Alívio; G12: Nd:YAG + Gluma/Colgate Pró Alívio. Em seguida, as superfícies receberam a aplicação de fitas adesivas nas duas margens, mantendo uma área central de teste exposta de 4 x 1 mm, onde foram realizados os tratamentos de superfície e os ciclos de abrasão correspondentes a 1, 7, 30 e 90 dias de escovação (52 ciclos, 210 segundos de contato com o slurry; 361 ciclos, 1470 segundos de contato com o slurry; 1545 ciclos, 6300 segundos de contato com o slurry; 4635 ciclos, 18900 segundos de contato com o slurry, respectivamente). A cada etapa de abrasão, foi realizada análise em Perfilometria Ótica. Para as analises de permeabilidade e Microscopia Eletrônica de Varredura, foram utilizadas amostras circulares de 6 mm de diâmetro e 1 mm de espessura de dentina obtidas das coroas dentais. Estas foram divididas aleatoriamente nos mesmos grupos já descritos anteriormente, sendo que 120 espécimes foram utilizados para permeabilidade (n=10) e 36 para MEV (n=3). Ambas as análises foram realizadas após imersão no EDTA; após tratamentos para a sensibilidade; pós 1 dia, 7 dias, 30 dias e 90 dias de escovação. Após análise estatística pode-se concluir que, in vivo, todos os tratamentos foram eficazes para a redução da hipersensibilidade dentinária. Ainda que o nível da sensibilidade dos pacientes aumentou numericamente, estes não são considerados estatisticamente diferentes a partir de 12 meses. Portanto, até a avaliação de 18 meses, podemos concluir que não houve um aumento na sensibilidade dentinária desde a sua diminuição pós-tratamento. In vitro, pode-se concluir que todos os tratamentos foram capazes de diminuir a permeabilidade dentinária. O dentifrício Total 12 apresentou-se como o mais abrasivo em comparação com o dentifrício Pro Alivio, pois este último promoveu uma perda de estrutura menor, porém ambos não apresentaram aumento na permeabilidade nos tempos de escovação. As microscopias eletrônicas de varredura mostram a formação da smear layer, obliterando os túbulos para ambos os dentifricios. Como conclusão, pode-se afirmar que todos os agentes dessensibilizantes foram efetivos, mesmo apresentando estratégias de ação diferentes. Os dentifrícios são igualmente interessantes para o uso caseiro por ocasionarem oclusão tubular e a associação de tratamentos (caseiro e de consultório) parece ser uma alternativa eficaz no tratamento da hipersensibilidade dentinária.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
Diferentemente de muitas cidades europeias, a urbanização da cidade de São Paulo ocorreu na medida de seu crescimento econômico e populacional, formando um desenho urbano heterogêneo, sem padrões. A falta de um planejamento eficaz somada à priorização do transporte individual geraram problemas urbanos tais como congestionamentos, degradação ambiental, transporte público incipiente, etc. O novo plano diretor estratégico de São Paulo surge com uma proposta para reorganização da cidade, adensando regiões providas de maior infraestrutura e limitando a densidade populacional das outras regiões. Responsável pelo desenvolvimento imobiliário, o setor de real estate é afetado diretamente pelas novas diretrizes do plano diretor. Neste trabalho, são discutidos os impactos do novo plano diretor no planejamento de produtos residenciais, identificando os efeitos na formação de preços e das tipologias que passarão a ser ofertadas de acordo com as novas diretrizes de uso do solo, bem como as possíveis respostas do mercado, ou seja, empreendedores e a população. A metodologia de pesquisa contou com estudos bibliográficos, coleta de dados em uma incorporadora tradicional da cidade de São Paulo, e estudos de qualidade de investimento. Uma base de dados de terrenos foi submetida ao modelo de modo a comparar os resultados de empreender considerando a legislação anterior e a atual imposta pelo plano. Como resultado, verificou-se que a consequência indireta do plano será o aumento de preço de venda de apartamentos. Para minimizar esse efeito, será necessário: reduzir as taxas de retorno do empreendedor, reduzir as áreas privativas, custos de obra e os custos de terreno. Para os empreendedores, o planejamento de produtos se tornará ainda mais importante, diante das novas limitações e da provável redução de seus resultados financeiros. Ainda, a tendência é que terrenos localizados próximos dos eixos de transporte tenham seus preços de comercialização elevados, e a oferta de apartamentos nessas regiões será de produtos de até 80 metros quadrados. Já os terrenos localizados em regiões de baixo aproveitamento poderão ter a atividade de incorporação inviabilizada, a não ser que haja reduções consideráveis dos custos de terreno.
Resumo:
Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.
Resumo:
A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.
Resumo:
O microrreator faz parte de conjunto de dispositivos de uma nova e promissora tecnologia, que podem ser chamados de micro fabricados, atuante em campos como a da química, biológica, farmacêutica, engenharia química e biotecnologia. Trata-se de um dispositivo que possibilita reação química, tais como os reatores convencionais, mas com dimensões menores, com canais na escala micrométrica. A tecnologia de miniaturização de dispositivos para reações químicas vem se expandindo promovendo uma importante evolução, com microssistemas que abrange dispositivos mais eficazes, com configuração e geometrias específicas e menor consumo de energia, onde reações com elevadas taxas de transporte podem ser usadas para muitas finalidades diferentes, tais como, reações rápidas, mistura, reações sensíveis à temperatura, temperatura de homogeneização, ou até mesmo precipitação de nano partículas. Devido sua escala ser extremamente reduzida em relação à escala macro, oferecem um sistema que permite uma investigação do processo em um curto espaço de tempo, sendo muito útil para o rastreio de substratos, enzimas, condições de reação, bem como a determinação de parâmetros cinéticos. O presente trabalho teve por objetivo estudar a biodegradação enzimática de 2,4,6-Triclorofenol, com a utilização das enzimas Lacase e Soybean Peroxidase em microrreator da Syrris com volume de 250 ?l, que permite o estudo de cinéticas muito rápidas. Para as análises de degradação utilizou-se duas enzimas, a Lacase em concentrações de 0,05; 0,1 e 0,2 mg/ml; e a Soybean Peroxidase em concentrações de 0,0005; 0,001 e 0,002 mg/ml com a adição de Peróxido de Hidrogênio. Através dos ensaios realizados obteve-se dados experimentais da reação enzimática, possibilitando a verificação da taxa inicial de reação e sua cinética. Posteriormente, realizou-se as análises em simulação utilizando os dados experimentais, que através de um sistema de EDOs estimando inicialmente as constantes cinéticas k1, k2 e k3 usando a ferramenta ESTIMA, onde apresentaram duas respostas, uma resposta típica de mínimos quadrados, e a outra resposta que a velocidade inicial, que foi melhor representada pelos parâmetros obtidos. O método empregado na degradação do substrato, o microrreator mostrou-se eficiente, permitindo a detecção de baixo consumo de substrato para a determinação da taxa inicial, em curto tempo de residência. Perante os ensaios realizados com Lacase e Soybean Peroxidase, o microrreator é também um equipamento eficaz na repetitividade e na reprodutibilidade dos dados obtidos em diferentes concentrações.
Resumo:
Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.
Resumo:
Estudo radiométrico em sedimentos com posição estratigráfica conhecida, das Bacias do Paraná e do Amazonas, permite estabelecer critérios de seleção de amostras e procedimentos experimentais adequados para a obtenção de idades significativas. Foram efetuadas 120 determinações Rb-Sr e 44 K-Ar. As idades K-Ar foram empregadas essencialmente para auxiliar a interpretação dos dados Rb-Sr. As interpretações Rb-Sr foram efetuadas mediante gráficos com linhas isócronas. Na avaliação estatística dos dados, o método usual dos mínimos quadrados, revelou-se deficiente na estimação dos parâmetros, em alguns exemplos testados. Na presente investigação, a melhor isócrona em cada caso foi definida levando-se em conta uma ponderação adequada para os pontos e uma correlação entre os erros específica e conveniente. A formação Ponta Grossa foi estudada em 8 amostras provenientes de testemunhos de 5 sondagens da Petrobrás S. A. na Bacia do Paraná. Os resultados obtidos em pelo menos 2 deles são concordantes com a idade estratigráfica. Nos outros 2 poços, apesar dos poucos dados, as isócronas mostram uma possível concordância, indicando que a diagênese teria ocorrido logo após a sedimentação marinha. A formação Rio Bonito, estudada em 8 amostras do poço TV-4-SC, apresentou 3 isócronas aproximadamente paralelas, com idades mais ou menos semelhantes e concordantes com a idade estratigráfica. Tal comportamento indicaria uma homogeneização isotópica mesmo entre as frações grosseiras. Dentre as amostras estudadas na Bacia do Paraná, os sedimentos da Formação Itararé foram os únicos que não puderam ser interpretados adequadamente. Isto evidenciou que as isócronas Rb-Sr devem ser restritas a rochas de apenas um determinado tipo litológico, quando examinamos Formações como a Itataré, de ambientes variados (fluvial, lacustre, glacial, marinho). A formação Trombetas foi estudada em 7 amostras de 2 poços localizados no Médio Amazonas. Ambas as isócronas obtidas, indicando idade ordoviciana-siluriana permitem supor que houve apenas uma homogeneização isotópica parcial após a deposição. Os dados podem ser considerados concordantes se forem levados em conta os erros experimentais das isócronas. As Formações Maecuru e Ereré foram estudadas em 6 amostras do poço MS-4-AM. A litologia desfavorável das 4 amostras da Formação Ereré (Membro Ariramba), levaram o autor a definir uma "isócrona mínima", cuja idade revelou-se próxima da admitida estratigraficamente. A Formação Maecuru (Membro Jatapu), estudada em 2 arenitos arcozianos, apesar do material não ser considerado satisfatório para datações, evidenciaram uma isócrona de referência cuja idade é compatível com a situação estratigráfica. A Formação Curuá foi analisada em 3 amostras do poço NA-1-PA. Tanto as rochas totais como as frações situaram-se sobre uma isócrona de referência cuja idade calculada apresentou concordância, com a idade estratigráfica, dentro do erro experimental. A boa correlação linear verificada leva a admitir uma diagênese precoce, acompanhada de equilíbrio entre os isótopos de Sr. A Formação Itaituba foi investigada em 7 amostras de 2 poços, situados um de cada lado do Alto de Purus. Os folhetos evidenciaram grande dispersão dos pontos sobre o diagrama Rb87/Sr86 x Sr87/Sr86, devida a teores variáveis de minerais detríticos difíceis de serem identificados petrograficamente. Novamente foi traçada uma "isócrona mínima" da qual participaram materiais calcíferos. As idades identicas, bem como a concordância com a idade estratigráfica da formação, parecem demonstrar a validade da técnica empregada. Os dados do presente trabalho indicam que rochas sedimentares podem ser datadas pelo método Rb-Sr, desde que sejam obedecidos alguns critérios importantes de seleção do material. Além disso devem ser empregadas técnicas apropriadas, tais como separação ) granulométrica de frações menores que 2 ou 4 μ, ou lixiaviação com HCl. As isócronas a serem traçadas, as quais indicariam a época da diagênese, devem incluir material de litologia semelhante, de um só ambiente de formação. As análises K-Ar podem servir como dados auxiliares, principalmente para avaliar a quantidade de material detrítico existente no sistema.