918 resultados para quasi-least squares
Resumo:
Electrical and magnetic brain waves of two subjects were recorded for the purpose of recognizing which one of 12 sentences or seven words auditorily presented was processed. The analysis consisted of averaging over trials to create prototypes and test samples, to each of which a Fourier transform was applied, followed by filtering and an inverse transformation to the time domain. The filters used were optimal predictive filters, selected for each subject. A still further improvement was obtained by taking differences between recordings of two electrodes to obtain bipolar pairs that then were used for the same analysis. Recognition rates, based on a least-squares criterion, varied, but the best were above 90%. The first words of prototypes of sentences also were cut and pasted to test, at least partially, the invariance of a word’s brain wave in different sentence contexts. The best result was above 80% correct recognition. Test samples made up only of individual trials also were analyzed. The best result was 134 correct of 288 (47%), which is promising, given that the expected recognition number by chance is just 24 (or 8.3%). The work reported in this paper extends our earlier work on brain-wave recognition of words only. The recognition rates reported here further strengthen the case that recordings of electric brain waves of words or sentences, together with extensive mathematical and statistical analysis, can be the basis of new developments in our understanding of brain processing of language.
Resumo:
Diferentes abordagens teóricas têm sido utilizadas em estudos de sistemas biomoleculares com o objetivo de contribuir com o tratamento de diversas doenças. Para a dor neuropática, por exemplo, o estudo de compostos que interagem com o receptor sigma-1 (Sig-1R) pode elucidar os principais fatores associados à atividade biológica dos mesmos. Nesse propósito, estudos de Relações Quantitativas Estrutura-Atividade (QSAR) utilizando os métodos de regressão por Mínimos Quadrados Parciais (PLS) e Rede Neural Artificial (ANN) foram aplicados a 64 antagonistas do Sig-1R pertencentes à classe de 1-arilpirazóis. Modelos PLS e ANN foram utilizados com o objetivo de descrever comportamentos lineares e não lineares, respectivamente, entre um conjunto de descritores e a atividade biológica dos compostos selecionados. O modelo PLS foi obtido com 51 compostos no conjunto treinamento e 13 compostos no conjunto teste (r² = 0,768, q² = 0,684 e r²teste = 0,785). Testes de leave-N-out, randomização da atividade biológica e detecção de outliers confirmaram a robustez e estabilidade dos modelos e mostraram que os mesmos não foram obtidos por correlações ao acaso. Modelos também foram gerados a partir da Rede Neural Artificial Perceptron de Multicamadas (MLP-ANN), sendo que a arquitetura 6-12-1, treinada com as funções de transferência tansig-tansig, apresentou a melhor resposta para a predição da atividade biológica dos compostos (r²treinamento = 0,891, r²validação = 0,852 e r²teste = 0,793). Outra abordagem foi utilizada para simular o ambiente de membranas sinápticas utilizando bicamadas lipídicas compostas por POPC, DOPE, POPS e colesterol. Os estudos de dinâmica molecular desenvolvidos mostraram que altas concentrações de colesterol induzem redução da área por lipídeo e difusão lateral e aumento na espessura da membrana e nos valores de parâmetro de ordem causados pelo ordenamento das cadeias acil dos fosfolipídeos. As bicamadas lipídicas obtidas podem ser usadas para simular interações entre lipídeos e pequenas moléculas ou proteínas contribuindo para as pesquisas associadas a doenças como Alzheimer e Parkinson. As abordagens usadas nessa tese são essenciais para o desenvolvimento de novas pesquisas em Química Medicinal Computacional.
Resumo:
Objetivo: Propôs-se analisar a relação espacial dos óbitos e internações evitáveis por TB com indicadores sociais em Ribeirão Preto/SP. Métodos: Trata-se de um estudo ecológico em que foram considerados os casos de óbitos e internações, tendo como causa básica do óbito e motivo principal da internação, a tuberculose (CID A15.0 a A19.9), ocorridos na zona urbana de Ribeirão Preto e registrados respectivamente no Sistema de Informação sobre Mortalidade e no Sistema de Internação Hospitalar do Sistema Único de Saúde no período de 2006 a 2012. Foi realizada a análise univariada das variáveis sociodemográficas e operacionais dos casos investigados. Para construção dos indicadores sociais utilizou-se a análise de componentes principais, sendo selecionados dados das áreas de abrangência do município, considerando os dados do Censo Demográfico de 2010. A geocodificação dos casos foi processada no TerraView versão 4.2.2. Recorreu-se à regressão linear múltipla, pelo método dos mínimos quadrados e à regressão espacial para análise da relação de dependência espacial entre os indicadores sociais e as taxas de mortalidade e de internações por TB. A autocorrelação nos resíduos da regressão linear múltipla foi testada por meio do Teste Global de Moran, as análises foram realizadas considerando os softwares Arcgis-versão 10.1, Statistica versão 12.0, OpenGeoDa versão 1.0 e R versão 3.2.3. Para o diagnóstico do melhor modelo de regressão espacial, utilizou-se o teste Multiplicador de Lagrange. Em todos os testes, foi fixado o nivel de significancia de alfa em 5% (p< 0,05). Resultados: Foram registrados 50 casos de óbitos e 196 casos de internações por TB. A maioria dos casos registrados em ambos os sistemas se deu em pessoas do sexo masculino (n=41; 82%/n=146; 74,5%) e com a forma clínica pulmonar (n=44; 80,0%/n=138; 67,9%). Na construção dos indicadores sociais, três novas variáveis surgiram, apresentando respectivamente variância total de 46,2%, 18,7% e 14,6% sendo denominadas como indicadores de renda, desigualdade social e equidade social. Na modelagem para verificar relação espacial entre os óbitos e os indicadores sociais observou-se que a equidade social foi indicador estatisticamente significativo (p=0,0013) com relação negativa a mortalidade, sendo o Modelo da Defasagem Espacial o melhor método para testar a dependência espacial, com valor de ? (rho) estimado em 0,53 e altamente significativo (p=0,0014). Já na modelagem da relação espacial entre as internações por tuberculose e os indicadores sociais, o indicador de renda apresentou-se estatisticamente significativo (p=0,015) com relação negativa a internação e o melhor método para testar a dependência espacial também foi o Modelo da Defasagem Espacial com valor de ? (rho) estimado em 0,80 e altamente significativo (p<0,0001). Conclusão: O estudo contribuiu no avanço do conhecimento de que a mortalidade e as internações por tuberculose são eventos socialmente determinados, o que sugere investimento por parte da gestão
Resumo:
Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
The purposes of this study were (1) to validate of the item-attribute matrix using two levels of attributes (Level 1 attributes and Level 2 sub-attributes), and (2) through retrofitting the diagnostic models to the mathematics test of the Trends in International Mathematics and Science Study (TIMSS), to evaluate the construct validity of TIMSS mathematics assessment by comparing the results of two assessment booklets. Item data were extracted from Booklets 2 and 3 for the 8th grade in TIMSS 2007, which included a total of 49 mathematics items and every student's response to every item. The study developed three categories of attributes at two levels: content, cognitive process (TIMSS or new), and comprehensive cognitive process (or IT) based on the TIMSS assessment framework, cognitive procedures, and item type. At level one, there were 4 content attributes (number, algebra, geometry, and data and chance), 3 TIMSS process attributes (knowing, applying, and reasoning), and 4 new process attributes (identifying, computing, judging, and reasoning). At level two, the level 1 attributes were further divided into 32 sub-attributes. There was only one level of IT attributes (multiple steps/responses, complexity, and constructed-response). Twelve Q-matrices (4 originally specified, 4 random, and 4 revised) were investigated with eleven Q-matrix models (QM1 ~ QM11) using multiple regression and the least squares distance method (LSDM). Comprehensive analyses indicated that the proposed Q-matrices explained most of the variance in item difficulty (i.e., 64% to 81%). The cognitive process attributes contributed to the item difficulties more than the content attributes, and the IT attributes contributed much more than both the content and process attributes. The new retrofitted process attributes explained the items better than the TIMSS process attributes. Results generated from the level 1 attributes and the level 2 attributes were consistent. Most attributes could be used to recover students' performance, but some attributes' probabilities showed unreasonable patterns. The analysis approaches could not demonstrate if the same construct validity was supported across booklets. The proposed attributes and Q-matrices explained the items of Booklet 2 better than the items of Booklet 3. The specified Q-matrices explained the items better than the random Q-matrices.
Resumo:
Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.
Resumo:
O microrreator faz parte de conjunto de dispositivos de uma nova e promissora tecnologia, que podem ser chamados de micro fabricados, atuante em campos como a da química, biológica, farmacêutica, engenharia química e biotecnologia. Trata-se de um dispositivo que possibilita reação química, tais como os reatores convencionais, mas com dimensões menores, com canais na escala micrométrica. A tecnologia de miniaturização de dispositivos para reações químicas vem se expandindo promovendo uma importante evolução, com microssistemas que abrange dispositivos mais eficazes, com configuração e geometrias específicas e menor consumo de energia, onde reações com elevadas taxas de transporte podem ser usadas para muitas finalidades diferentes, tais como, reações rápidas, mistura, reações sensíveis à temperatura, temperatura de homogeneização, ou até mesmo precipitação de nano partículas. Devido sua escala ser extremamente reduzida em relação à escala macro, oferecem um sistema que permite uma investigação do processo em um curto espaço de tempo, sendo muito útil para o rastreio de substratos, enzimas, condições de reação, bem como a determinação de parâmetros cinéticos. O presente trabalho teve por objetivo estudar a biodegradação enzimática de 2,4,6-Triclorofenol, com a utilização das enzimas Lacase e Soybean Peroxidase em microrreator da Syrris com volume de 250 ?l, que permite o estudo de cinéticas muito rápidas. Para as análises de degradação utilizou-se duas enzimas, a Lacase em concentrações de 0,05; 0,1 e 0,2 mg/ml; e a Soybean Peroxidase em concentrações de 0,0005; 0,001 e 0,002 mg/ml com a adição de Peróxido de Hidrogênio. Através dos ensaios realizados obteve-se dados experimentais da reação enzimática, possibilitando a verificação da taxa inicial de reação e sua cinética. Posteriormente, realizou-se as análises em simulação utilizando os dados experimentais, que através de um sistema de EDOs estimando inicialmente as constantes cinéticas k1, k2 e k3 usando a ferramenta ESTIMA, onde apresentaram duas respostas, uma resposta típica de mínimos quadrados, e a outra resposta que a velocidade inicial, que foi melhor representada pelos parâmetros obtidos. O método empregado na degradação do substrato, o microrreator mostrou-se eficiente, permitindo a detecção de baixo consumo de substrato para a determinação da taxa inicial, em curto tempo de residência. Perante os ensaios realizados com Lacase e Soybean Peroxidase, o microrreator é também um equipamento eficaz na repetitividade e na reprodutibilidade dos dados obtidos em diferentes concentrações.
Resumo:
Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.
Resumo:
Presentación oral SPIE Photonics Europe, Brussels, 16-19 April 2012.
Resumo:
In the present paper, a methodology is proposed for obtaining empirical equations describing the sound absorption characteristics of an absorbing material obtained from natural fibers, specifically from coconut. The method, which was previously applied to other materials, requires performing measurements of air-flow resistivity and of acoustic impedance for samples of the material under study. The equations that govern the acoustic behavior of the material are then derived by means of a least-squares fit of the acoustic impedance and of the propagation constant. These results can be useful since they allow the empirically obtained analytical equations to be easily incorporated in prediction and simulation models of acoustic systems for noise control that incorporate the studied materials.
Resumo:
Purpose – The purpose of this paper is to analyze the internalization of quality management (QM) on the basis of quality certifiable standards – also referred to as meta-standards – in service organizations. More specifically, the paper analyzes the case of the internalization of a quality standard in the Spanish hotel industry. Design/methodology/approach – The paper examines the relationships between the measures of internalization, benefit, QM tools and motivation, using partial least squares in the framework of the structural equation modeling technique. Findings – The results show that the hotels that have internalized the standard to a greater extent are more likely to be driven by internal motivation, develop more QM tools and achieve greater benefits than the hotels with a lower degree of internalization. Originality/value – As previous studies have examined these issues in relation to the internalization of ISO standards, the present study adds to this important stream of research and contributes by advancing the understanding of these issues through the case of a specific standard for the hotel industry.
Resumo:
Purpose – The purpose of this paper is to analyse Information Systems outsourcing success, measuring the latter according to the satisfaction level achieved by users and taking into account three success factors: the role played by the client firm’s top management; the relationships between client and provider; and the degree of outsourcing. Design/methodology/approach – A survey was carried out by means of a questionnaire answered by 398 large Spanish firms. Its results were examined using the partial least squares software and through the proposal of a structural equation model. Findings – The conclusions reveal that the perceived benefits play a mediating role in outsourcing satisfaction and also that these benefits can be grouped together into three categories: strategic; economic; and technological ones. Originality/value – The study identifies how some success factors will be more influent than others depending which type of benefits are ultimately sought with outsourcing.
Resumo:
This paper reports results derived from a mixed methods study where 13 hotel managers were initially interviewed, followed by a quantitative study of 355 additional managers. Data were analysed using partial least squares path modelling. The research question related to the relationship between quality and environmental management and the competitive advantage sought by hotels. The results indicate that quality management and environmental management permit the improvement of competitive advantage in terms of both costs and differentiation. Moreover, hotels implementing quality programmes find fewer obstacles in implementing environmental management.