567 resultados para Minimos quadrados
Resumo:
Esta pesquisa tem como objetivo investigar e discutir a ambientação como elemento de comunicação aplicado ao ponto-de-venda livraria e observar e analisar como as atuais lojas se adaptaram a uma realidade de mercado, que visa envolver o cliente em uma experiência prazerosa, tendo em vista a concorrência do comércio virtual e a crescente venda de livros em supermercados. Pretende-se, neste trabalho, compreender a utilização dos diversos elementos sensoriais que envolvem: tato, olfato, paladar, visão e audição no ponto-de-venda físico. O objeto de estudo é a Livraria Cultura do Conjunto Nacional, sua relevância ocorre pelo fato da livraria ser a maior loja em metros quadrados do país. Por tratar-se de um fenômeno contemporâneo inserido no contexto da vida real, a metodologia utilizada é o Estudo de Caso Único e os procedimentos metodológicos são observação direta do consumidor no ponto-de-venda, pesquisa bibliográfica, entrevistas com freqüentadores da loja e com profissionais do setor. Pode-se concluir que as características hedônicas do consumidor contemporâneo que busca experiências prazerosas associada a sinergia da comunicação integrada de marketing favorecem para os resultados positivos apresentados pela livraria.(AU)
Resumo:
A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.
Resumo:
Este estudo teve como objetivo principal analisar a relação entre a Liderança Transformacional, a Conversão do Conhecimento e a Eficácia Organizacional. Foram considerados como pressupostos teóricos conceitos consolidados sobre os temas desta relação, além de recentes pesquisas já realizadas em outros países e contextos organizacionais. Com base nisto identificou-se potencial estudo de um modelo que relacionasse estes três conceitos. Para tal considera-se que as organizações que buscam atingir Vantagem Competitiva e incorporam a Knowledge-Based View possam conquistar diferenciação frente a seus concorrentes. Nesse contexto o conhecimento ganha maior destaque e papel protagonista nestas organizações. Dessa forma criar conhecimento através de seus colaboradores, passa a ser um dos desafios dessas organizações ao passo que sugere melhoria de seus indicadores Econômicos, Sociais, Sistêmicos e Políticos, o que se define por Eficácia Organizacional. Portanto os modos de conversão do conhecimento nas organizações, demonstram relevância, uma vez que se cria e se converte conhecimentos através da interação entre o conhecimento existente de seus colaboradores. Essa conversão do conhecimento ou modelo SECI possui quatro modos que são a Socialização, Externalização, Combinação e Internalização. Nessa perspectiva a liderança nas organizações apresenta-se como um elemento capaz de influenciar seus colaboradores, propiciando maior dinâmica ao modelo SECI de conversão do conhecimento. Se identifica então na liderança do tipo Transformacional, características que possam influenciar colaboradores e entende-se que esta relação entre a Liderança Transformacional e a Conversão do Conhecimento possa ter influência positiva nos indicadores da Eficácia Organizacional. Dessa forma esta pesquisa buscou analisar um modelo que explorasse essa relação entre a liderança do tipo Transformacional, a Conversão do Conhecimento (SECI) e a Eficácia Organizacional. Esta pesquisa teve o caráter quantitativo com coleta de dados através do método survey, obtendo um total de 230 respondentes válidos de diferentes organizações. O instrumento de coleta de dados foi composto por afirmativas relativas ao modelo de relação pesquisado com um total de 44 itens. O perfil de respondentes concentrou-se entre 30 e 39 anos de idade, com a predominância de organizações privadas e de departamentos de TI/Telecom, Docência e Recursos Humanos respectivamente. O tratamento dos dados foi através da Análise Fatorial Exploratória e Modelagem de Equações Estruturais via Partial Least Square Path Modeling (PLS-PM). Como resultado da análise desta pesquisa, as hipóteses puderam ser confirmadas, concluindo que a Liderança Transformacional apresenta influência positiva nos modos de Conversão do Conhecimento e que; a Conversão do Conhecimento influencia positivamente na Eficácia Organizacional. Ainda, concluiu-se que a percepção entre os respondentes não apresenta resultado diferente sobre o modelo desta pesquisa entre quem possui ou não função de liderança.
Resumo:
A sociedade está cada vez mais exigente com relação à qualidade dos produtos consumidos e se preocupa com os benefícios para a saúde. Neste contexto, objetivou-se avaliar o efeito da inclusão de níveis de óleo de canola na dieta de vacas sobre amanteiga e muçarela, buscando produtos mais saudáveis para o consumo humano. Foram utilizadas 18 vacas Holandesas, em estágio intermediário de lactação, com produção média de 22 (± 4) Kg de leite/ dia, as quais foram distribuídas em dois quadrados latinos 3x3 contemporâneos e receberam as dietas experimentais: T1- Controle (0% de inclusão de óleo); T2- 3% de inclusão de óleo de canola e T3- 6% de inclusão de óleo de canola. O perfil lipídico foi determinado através de cromatografia gasosa, além da avaliação de qualidade nutricional, realizada através de equações utilizando os ácidos graxos obtidos no perfil lipídico, análises físico-químicas determinadas pela metodologia do Instituto Adolfo Lutz e análises microbiológicas. Houveram problemas durante processamento do leite, gerando alterações de tecnologia de fabricação do produto manteiga, obtendo-se outro produto, o creme de leite, ao invés de manteiga, além de prejuízos na qualidade microbiológicas do creme de leite e muçarela. A inclusão de óleo de canola na dieta em lactação reduziu quadraticamente os ácidos graxos de cadeia curta e proporcionou aumento quadrático dos ácidos graxos de cadeia longa, dos ácidos graxos insaturados e ácidos graxos monoinsaturados na muçarela. A relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) e a relação ômega-6/ômega-3, assim como os índices de aterogenicidade e trombogenicidade, na muçarela, reduziram linearmente 25,68%, 31,35%; 32,12% e 21,78%, respectivamente, quando comparando T1 e T3. No creme de leite, houve redução linear dos ácidos graxos de cadeia curta e média, bem como, os ácidos graxos saturados e a relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) em 41,07%; 23,82%; 15,91% e 35,59%, respectivamente, enquanto os ácidos graxos de cadeia longa, ácidos graxos insaturados e ácidos graxos monoinsaturados aumentaram linearmente 41,40%; 28,24% e 32,07%, nesta ordem, quando comparando T1 com T3. Os índices de aterogenicidade e trombogenicidade reduziram de forma linear, enquanto o índice h/H (razão ácidos graxos hipocolesterolêmicos e hipercolesterolêmicos) aumentou linearmente. A composição físico-química de ambos derivados e o rendimento da muçarela não apresentaram efeito significativo com a inclusão do óleo de canola, exceto a proteína bruta da muçarela que apresentou aumento linear e a gordura do creme de leite que apresentou efeito quadrático. As análises microbiológicas mostram contagens muito elevadas de microrganismos, sugerindo que os produtos não apresentam qualidade microbiológica, decorrente da ausência do processo de pasteurização do creme e da baixa eficiência do tratamento térmico aplicado ao leite destinado a produção da muçarela. Conclui-se que a adição de óleo de canola na dieta de vacas lactantes proporciona muçarela e creme de leite mais saudáveis para o consumo humano, pois apresentaram perfil lipídico mais rico em ácidos graxos insaturados, além da série ômega-3 e ácido oleico, entretanto, devido a problemas de processamento, estes produtos obtidos, não estão aptos ao consumo devido à ausência de qualidade microbiológica.
Resumo:
Introdução: A importância da investigação da qualidade de vida de crianças está diretamente relacionada ao fato de que muitos problemas na vida adulta têm sua origem na infância. Objetivo: analisar a contribuição da percepção do relacionamento familiar e do estado nutricional sobre a qualidade de vida de crianças do município de Indaiatuba. Metodologia: Na etapa 1 foi realizado o estudo de validade do instrumento APGAR Familiar adaptado à crianças de 7 a 11 anos, utilizando como medida de confiabilidade a técnica do Teste-Reteste e para a avaliação da validade convergente foi utilizada a Escala de Avaliação de Qualidade de Vida Infantil. Na etapa 2 foram avaliados os determinantes da Qualidade de Vida de crianças sob aspectos familiares, estado nutricional e socioeconômicos e demográficos. Os dados foram analisados por meio de Regressão Linear Múltipla com método dos Mínimos Quadrados Ordinários. Resultados: Na etapa 1 a análise de confiabilidade obteve a correlação de 0,764 do coeficiente de Spearman-Brown. Na análise de Validade Convergente o coeficiente de correlação de Rô de Spearman entre os escores dos dois instrumentos foi de 0,570 (p<0,01). Na etapa 2 foi estimado um modelo dos determinantes da qualidade de vida a partir de uma amostra de 1028 crianças de 7 a 11 anos de ambos os sexos. As variáveis independentes foram capazes de explicar a Qualidade de Vida de crianças a uma significância de 1% (Z = 8,417), sendo o R² ajustado de 0,104. A idade da criança e a percepção do relacionamento familiar foram as variáveis estatisticamente significativas, ao passo que o estado nutricional, o tamanho da família, o sexo da criança, a classe social e a escolaridade do responsável, não foram estatisticamente significantes. Conclusão: O instrumento APGAR Familiar apresentou índices preliminares de validade e precisão; a idade e o relacionamento familiar foram as variáveis que explicaram a qualidade de vida percebida sob a perspectiva subjetiva de bem-estar.
Resumo:
Diferentes abordagens teóricas têm sido utilizadas em estudos de sistemas biomoleculares com o objetivo de contribuir com o tratamento de diversas doenças. Para a dor neuropática, por exemplo, o estudo de compostos que interagem com o receptor sigma-1 (Sig-1R) pode elucidar os principais fatores associados à atividade biológica dos mesmos. Nesse propósito, estudos de Relações Quantitativas Estrutura-Atividade (QSAR) utilizando os métodos de regressão por Mínimos Quadrados Parciais (PLS) e Rede Neural Artificial (ANN) foram aplicados a 64 antagonistas do Sig-1R pertencentes à classe de 1-arilpirazóis. Modelos PLS e ANN foram utilizados com o objetivo de descrever comportamentos lineares e não lineares, respectivamente, entre um conjunto de descritores e a atividade biológica dos compostos selecionados. O modelo PLS foi obtido com 51 compostos no conjunto treinamento e 13 compostos no conjunto teste (r² = 0,768, q² = 0,684 e r²teste = 0,785). Testes de leave-N-out, randomização da atividade biológica e detecção de outliers confirmaram a robustez e estabilidade dos modelos e mostraram que os mesmos não foram obtidos por correlações ao acaso. Modelos também foram gerados a partir da Rede Neural Artificial Perceptron de Multicamadas (MLP-ANN), sendo que a arquitetura 6-12-1, treinada com as funções de transferência tansig-tansig, apresentou a melhor resposta para a predição da atividade biológica dos compostos (r²treinamento = 0,891, r²validação = 0,852 e r²teste = 0,793). Outra abordagem foi utilizada para simular o ambiente de membranas sinápticas utilizando bicamadas lipídicas compostas por POPC, DOPE, POPS e colesterol. Os estudos de dinâmica molecular desenvolvidos mostraram que altas concentrações de colesterol induzem redução da área por lipídeo e difusão lateral e aumento na espessura da membrana e nos valores de parâmetro de ordem causados pelo ordenamento das cadeias acil dos fosfolipídeos. As bicamadas lipídicas obtidas podem ser usadas para simular interações entre lipídeos e pequenas moléculas ou proteínas contribuindo para as pesquisas associadas a doenças como Alzheimer e Parkinson. As abordagens usadas nessa tese são essenciais para o desenvolvimento de novas pesquisas em Química Medicinal Computacional.
Resumo:
Objetivo: Propôs-se analisar a relação espacial dos óbitos e internações evitáveis por TB com indicadores sociais em Ribeirão Preto/SP. Métodos: Trata-se de um estudo ecológico em que foram considerados os casos de óbitos e internações, tendo como causa básica do óbito e motivo principal da internação, a tuberculose (CID A15.0 a A19.9), ocorridos na zona urbana de Ribeirão Preto e registrados respectivamente no Sistema de Informação sobre Mortalidade e no Sistema de Internação Hospitalar do Sistema Único de Saúde no período de 2006 a 2012. Foi realizada a análise univariada das variáveis sociodemográficas e operacionais dos casos investigados. Para construção dos indicadores sociais utilizou-se a análise de componentes principais, sendo selecionados dados das áreas de abrangência do município, considerando os dados do Censo Demográfico de 2010. A geocodificação dos casos foi processada no TerraView versão 4.2.2. Recorreu-se à regressão linear múltipla, pelo método dos mínimos quadrados e à regressão espacial para análise da relação de dependência espacial entre os indicadores sociais e as taxas de mortalidade e de internações por TB. A autocorrelação nos resíduos da regressão linear múltipla foi testada por meio do Teste Global de Moran, as análises foram realizadas considerando os softwares Arcgis-versão 10.1, Statistica versão 12.0, OpenGeoDa versão 1.0 e R versão 3.2.3. Para o diagnóstico do melhor modelo de regressão espacial, utilizou-se o teste Multiplicador de Lagrange. Em todos os testes, foi fixado o nivel de significancia de alfa em 5% (p< 0,05). Resultados: Foram registrados 50 casos de óbitos e 196 casos de internações por TB. A maioria dos casos registrados em ambos os sistemas se deu em pessoas do sexo masculino (n=41; 82%/n=146; 74,5%) e com a forma clínica pulmonar (n=44; 80,0%/n=138; 67,9%). Na construção dos indicadores sociais, três novas variáveis surgiram, apresentando respectivamente variância total de 46,2%, 18,7% e 14,6% sendo denominadas como indicadores de renda, desigualdade social e equidade social. Na modelagem para verificar relação espacial entre os óbitos e os indicadores sociais observou-se que a equidade social foi indicador estatisticamente significativo (p=0,0013) com relação negativa a mortalidade, sendo o Modelo da Defasagem Espacial o melhor método para testar a dependência espacial, com valor de ? (rho) estimado em 0,53 e altamente significativo (p=0,0014). Já na modelagem da relação espacial entre as internações por tuberculose e os indicadores sociais, o indicador de renda apresentou-se estatisticamente significativo (p=0,015) com relação negativa a internação e o melhor método para testar a dependência espacial também foi o Modelo da Defasagem Espacial com valor de ? (rho) estimado em 0,80 e altamente significativo (p<0,0001). Conclusão: O estudo contribuiu no avanço do conhecimento de que a mortalidade e as internações por tuberculose são eventos socialmente determinados, o que sugere investimento por parte da gestão
Resumo:
Silagens de milho são mais propensas à deterioração quando expostas ao ar. As leveduras assimiladoras de ácido lático são frequentemente os primeiros microrganismos a iniciar a deterioração aeróbia nas silagens. Alguns estudos reportam que silagem de milho aerobicamente instável está associada à redução no consumo, na produção de leite e depressão no teor de gordura do leite. Portanto, o objetivo deste estudo foi avaliar a influência de inoculação de leveduras (Pichia norvegensis) e a exposição ao ar por 48 horas sobre o valor nutritivo das silagens e o desempenho de vacas leiteiras. O milho foi colhido com 34% de MS, tratado sem (Controle) ou com P. norvegensis, na dose 1×105 ufc/g MV (Levedura) e armazenado silos tipo bolsa (40 t/silo). Após 123 dias de armazenamento, os silos foram abertos e a silagem foi fornecida para vacas leiteiras. Diariamente, as silagens foram retiradas e fornecidas imediatamente (Fresca) ou após 48 horas de exposição (Exposta). Vinte vacas Holandesas foram distribuídas em 5 quadrados latinos replicados 4×4, com períodos de 21 dias (15 d para adaptação + 6 d para amostragem). As dietas foram formuladas para conter: 53% silagem de milho, 8% caroço de algodão, 18% farelo de soja, 9,5% polpa cítrica, 9% milho seco moído e 2,5% premix vitamínico e mineral. Os quatro tratamentos foram assim constituídos: silagem controle fresca (CF), silagem controle exposta (CE), silagem inoculada com levedura fresca (LF) e silagem inoculada com levedura exposta (LE). A inoculação com levedura aumentou as perdas de matéria seca (P<0,001) e reduziu o tempo de estabilidade aeróbia (P=0,03) das silagens de milho. No ensaio de desempenho animal, reduziu a produção de leite corrigida para 3,5% de gordura (P=0,03) e a eficiência alimentar (ELL leite/CMS) (P<0,01), porém não alterou o teor de gordura do leite. Quanto aos efeitos da exposição ao ar por 48 horas, estes reduziram a concentração de ácido lático (P<0,001), que consequentemente aumentou o pH (P=0,004) das silagens, além de reduzir outros produtos de fermentação. A exposição também reduziu a produção de leite corrigido para gordura (P=0,02) e a eficiência alimentar (P=0,10). Nenhum tratamento alterou o consumo de MS. Houve tendência para redução da digestibilidade da MS e FDN e do NDT, quando as silagens foram expostas ao ar. A inoculação com leveduras e a exposição ao ar por 48 horas deprimem o desempenho animal através da redução no valor nutritivo das silagens de milho.
Resumo:
Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.
Resumo:
Este estudo possui duas partes distintas: 1. in vivo (randomizado e longitudinal) que teve como objetivo avaliar protocolos de tratamento para hipersensibilidade dentinária com laser de baixa potência (com diferentes dosagens), laser de alta potência e agente dessensibilizante, por um período de 12 e 18 meses; e 2. in vitro que teve como objetivo analisar a perda de estrutura de dois dentifrícios distintos (Colgate Total 12 e Colgate Pró Alívio) e analisar a permeabilidade dentinária dos tratamentos da etapa 01, associados aos dentifrícios, após diferentes ciclos de abrasão. Na parte in vivo, as lesões cervicais não cariosas de 32 voluntários, previamente submetidos aos critérios de elegibilidade ou exclusão, foram divididas em nove grupos (n=10): G1: Gluma Desensitizer (Heraeus Kulzer), G2: Laser de baixa potência com baixa dosagem (Photon Lase, DMC) (três pontos de irradiação vestibulares e um ponto apical: 30 mW, 10 J/cm2, 9 seg por ponto com o comprimento de onda de 810nm). Foram realizadas três sessões com um intervalo de 72 horas), G3: Laser de baixa potência com alta dosagem (um ponto cervical e um ponto apical: 100 mW, 90 J/cm2, 11 seg por ponto com o comprimento de onda de 810nm. Foram realizadas três sessões com um intervalo de 72 horas), G4: Laser de baixa potência com baixa dosagem + Gluma Desensitizer, G5: Laser de baixa potência com alta dosagem + Gluma Desensitizer, G6: Laser de Nd:YAG (Power LaserTM ST6, Lares Research®), em contato com a superfície dental: 1,0W, 10 Hz e 100 mJ, ? 85 J/cm2, com o comprimento de onda de 1064nm, G7: Laser de Nd:YAG + Gluma Desensitizer, G8: Laser de Nd:YAG + Laser de baixa potência com baixa dosagem, G9: Laser de Nd:YAG + Laser de baixa potência com alta dosagem. O nível de sensibilidade de cada voluntário foi avaliado através da escala visual analógica de dor (VAS) com auxílio do ar da seringa tríplice e exploração com sonda após 12 e 18 meses do tratamento. Na parte 02, in vitro, foram utilizados terceiros molares humanos não irrompidos e recém-extraídos. Todos foram limpos e tiveram suas raízes separadas das coroas. As raízes foram seccionadas em quadrados de dentina com dimensões de 4x4x2 mm, os quais foram embutidos em resina Epoxi e devidamente polidos até uma curvatura de 0,3 ?m, analisados em perfilometria ótica. Estes foram imersos em solução de EDTA 17% por 2min para abertura dos túbulos e armazenados em uma solução de Soro Fetal Bovino diluído em salina tamponada com fosfato. Os espécimes foram divididos aleatoriamente em 12 grupos (n=10) G1: Sem tratamento de superfície, sem dentifrício; G2: Nd:YAG/sem dentifrício; G3: Gluma/sem dentifrício; G4: Nd:YAG + Gluma/sem dentifrício; G5: Sem tratamento de superfície/Colgate Total 12; G6: Nd:YAG/Colgate Total 12; G7: Gluma/Colgate Total 12; G8: Nd:YAG + Gluma/Colgate Total 12; G9: Sem tratamento de superfície/Colgate Pró Alívio; G10: Nd:YAG/Colgate Pró Alívio; G11: Gluma/Colgate Pró Alívio; G12: Nd:YAG + Gluma/Colgate Pró Alívio. Em seguida, as superfícies receberam a aplicação de fitas adesivas nas duas margens, mantendo uma área central de teste exposta de 4 x 1 mm, onde foram realizados os tratamentos de superfície e os ciclos de abrasão correspondentes a 1, 7, 30 e 90 dias de escovação (52 ciclos, 210 segundos de contato com o slurry; 361 ciclos, 1470 segundos de contato com o slurry; 1545 ciclos, 6300 segundos de contato com o slurry; 4635 ciclos, 18900 segundos de contato com o slurry, respectivamente). A cada etapa de abrasão, foi realizada análise em Perfilometria Ótica. Para as analises de permeabilidade e Microscopia Eletrônica de Varredura, foram utilizadas amostras circulares de 6 mm de diâmetro e 1 mm de espessura de dentina obtidas das coroas dentais. Estas foram divididas aleatoriamente nos mesmos grupos já descritos anteriormente, sendo que 120 espécimes foram utilizados para permeabilidade (n=10) e 36 para MEV (n=3). Ambas as análises foram realizadas após imersão no EDTA; após tratamentos para a sensibilidade; pós 1 dia, 7 dias, 30 dias e 90 dias de escovação. Após análise estatística pode-se concluir que, in vivo, todos os tratamentos foram eficazes para a redução da hipersensibilidade dentinária. Ainda que o nível da sensibilidade dos pacientes aumentou numericamente, estes não são considerados estatisticamente diferentes a partir de 12 meses. Portanto, até a avaliação de 18 meses, podemos concluir que não houve um aumento na sensibilidade dentinária desde a sua diminuição pós-tratamento. In vitro, pode-se concluir que todos os tratamentos foram capazes de diminuir a permeabilidade dentinária. O dentifrício Total 12 apresentou-se como o mais abrasivo em comparação com o dentifrício Pro Alivio, pois este último promoveu uma perda de estrutura menor, porém ambos não apresentaram aumento na permeabilidade nos tempos de escovação. As microscopias eletrônicas de varredura mostram a formação da smear layer, obliterando os túbulos para ambos os dentifricios. Como conclusão, pode-se afirmar que todos os agentes dessensibilizantes foram efetivos, mesmo apresentando estratégias de ação diferentes. Os dentifrícios são igualmente interessantes para o uso caseiro por ocasionarem oclusão tubular e a associação de tratamentos (caseiro e de consultório) parece ser uma alternativa eficaz no tratamento da hipersensibilidade dentinária.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
Diferentemente de muitas cidades europeias, a urbanização da cidade de São Paulo ocorreu na medida de seu crescimento econômico e populacional, formando um desenho urbano heterogêneo, sem padrões. A falta de um planejamento eficaz somada à priorização do transporte individual geraram problemas urbanos tais como congestionamentos, degradação ambiental, transporte público incipiente, etc. O novo plano diretor estratégico de São Paulo surge com uma proposta para reorganização da cidade, adensando regiões providas de maior infraestrutura e limitando a densidade populacional das outras regiões. Responsável pelo desenvolvimento imobiliário, o setor de real estate é afetado diretamente pelas novas diretrizes do plano diretor. Neste trabalho, são discutidos os impactos do novo plano diretor no planejamento de produtos residenciais, identificando os efeitos na formação de preços e das tipologias que passarão a ser ofertadas de acordo com as novas diretrizes de uso do solo, bem como as possíveis respostas do mercado, ou seja, empreendedores e a população. A metodologia de pesquisa contou com estudos bibliográficos, coleta de dados em uma incorporadora tradicional da cidade de São Paulo, e estudos de qualidade de investimento. Uma base de dados de terrenos foi submetida ao modelo de modo a comparar os resultados de empreender considerando a legislação anterior e a atual imposta pelo plano. Como resultado, verificou-se que a consequência indireta do plano será o aumento de preço de venda de apartamentos. Para minimizar esse efeito, será necessário: reduzir as taxas de retorno do empreendedor, reduzir as áreas privativas, custos de obra e os custos de terreno. Para os empreendedores, o planejamento de produtos se tornará ainda mais importante, diante das novas limitações e da provável redução de seus resultados financeiros. Ainda, a tendência é que terrenos localizados próximos dos eixos de transporte tenham seus preços de comercialização elevados, e a oferta de apartamentos nessas regiões será de produtos de até 80 metros quadrados. Já os terrenos localizados em regiões de baixo aproveitamento poderão ter a atividade de incorporação inviabilizada, a não ser que haja reduções consideráveis dos custos de terreno.
Resumo:
Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.
Resumo:
A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.