981 resultados para Ações (Finanças) - Preços - Modelos matemáticos
Resumo:
We introduce a general class of su(1|1) supersymmetric spin chains with long-range interactions which includes as particular cases the su(1|1) Inozemtsev (elliptic) and Haldane-Shastry chains, as well as the XX model. We show that this class of models can be fermionized with the help of the algebraic properties of the su(1|1) permutation operator and take advantage of this fact to analyze their quantum criticality when a chemical potential term is present in the Hamiltonian. We first study the low-energy excitations and the low-temperature behavior of the free energy, which coincides with that of a (1+1)-dimensional conformal field theory (CFT) with central charge c=1 when the chemical potential lies in the critical interval (0,E(π)), E(p) being the dispersion relation. We also analyze the von Neumann and Rényi ground state entanglement entropies, showing that they exhibit the logarithmic scaling with the size of the block of spins characteristic of a one-boson (1+1)-dimensional CFT. Our results thus show that the models under study are quantum critical when the chemical potential belongs to the critical interval, with central charge c=1. From the analysis of the fermion density at zero temperature, we also conclude that there is a quantum phase transition at both ends of the critical interval. This is further confirmed by the behavior of the fermion density at finite temperature, which is studied analytically (at low temperature), as well as numerically for the su(1|1) elliptic chain.
Resumo:
We introduce a new class of generalized isotropic Lipkin–Meshkov–Glick models with su(m+1) spin and long-range non-constant interactions, whose non-degenerate ground state is a Dicke state of su(m+1) type. We evaluate in closed form the reduced density matrix of a block of Lspins when the whole system is in its ground state, and study the corresponding von Neumann and Rényi entanglement entropies in the thermodynamic limit. We show that both of these entropies scale as a log L when L tends to infinity, where the coefficient a is equal to (m − k)/2 in the ground state phase with k vanishing magnon densities. In particular, our results show that none of these generalized Lipkin–Meshkov–Glick models are critical, since when L-->∞ their Rényi entropy R_q becomes independent of the parameter q. We have also computed the Tsallis entanglement entropy of the ground state of these generalized su(m+1) Lipkin–Meshkov–Glick models, finding that it can be made extensive by an appropriate choice of its parameter only when m-k≥3. Finally, in the su(3) case we construct in detail the phase diagram of the ground state in parameter space, showing that it is determined in a simple way by the weights of the fundamental representation of su(3). This is also true in the su(m+1) case; for instance, we prove that the region for which all the magnon densities are non-vanishing is an (m + 1)-simplex in R^m whose vertices are the weights of the fundamental representation of su(m+1).
Resumo:
In this work we provide simple and precise parametrizations of the existing πK scattering data from threshold up to 1.6 GeV, which are constrained to satisfy forward dispersion relations as well as three additional threshold sum rules. We also provide phenomenological values of the threshold parameters and of the resonance poles that appear in elastic scattering.
Resumo:
By performing a high-statistics simulation of the D = 4 random-field Ising model at zero temperature for different shapes of the random-field distribution, we show that the model is ruled by a single universality class. We compute to a high accuracy the complete set of critical exponents for this class, including the correction-to-scaling exponent. Our results indicate that in four dimensions (i) dimensional reduction as predicted by the perturbative renormalization group does not hold and (ii) three independent critical exponents are needed to describe the transition.
Resumo:
A aquisição experimental de sinais neuronais é um dos principais avanços da neurociência. Por meio de observações da corrente e do potencial elétricos em uma região cerebral, é possível entender os processos fisiológicos envolvidos na geração do potencial de ação, e produzir modelos matemáticos capazes de simular o comportamento de uma célula neuronal. Uma prática comum nesse tipo de experimento é obter leituras a partir de um arranjo de eletrodos posicionado em um meio compartilhado por diversos neurônios, o que resulta em uma mistura de sinais neuronais em uma mesma série temporal. Este trabalho propõe um modelo linear de tempo discreto para o sinal produzido durante o disparo do neurônio. Os coeficientes desse modelo são calculados utilizando-se amostras reais dos sinais neuronais obtidas in vivo. O processo de modelagem concebido emprega técnicas de identificação de sistemas e processamento de sinais, e é dissociado de considerações sobre o funcionamento biofísico da célula, fornecendo uma alternativa de baixa complexidade para a modelagem do disparo neuronal. Além disso, a representação por meio de sistemas lineares permite idealizar um sistema inverso, cuja função é recuperar o sinal original de cada neurônio ativo em uma mistura extracelular. Nesse contexto, são discutidas algumas soluções baseadas em filtros adaptativos para a simulação do sistema inverso, introduzindo uma nova abordagem para o problema de separação de spikes neuronais.
Resumo:
Óleo de soja epoxidado (OSE) é um produto químico há muito tempo utilizado como co-estabilizante e plastificante secundário do poli (cloreto de vinila) (PVC), ou seja, como um material que tem limitações na quantidade máxima que pode ser usada no composto de PVC. A sua aplicação como plastificante primário, ou seja, como o principal elemento plastificante no composto de PVC, e como base para outros plastificantes de fontes renováveis, tem aumentado nos últimos anos, principalmente devido a melhorias de desempenho e à redução do custo do OSE em comparação com plastificantes tradicionais. A reação de epoxidação do óleo de soja é bem conhecida e ocorre em duas fases líquidas, com reações em ambas as fases, e transferência de massa entre as fases. O processo industrial mais utilizado conta com formação in-situ do ácido perfórmico, através da adição gradativa do principal reagente, o peróxido de hidrogênio a uma mistura agitada de ácido fórmico e óleo de soja refinado. Industrialmente, o processo é realizado em batelada, controlando a adição do reagente peróxido de hidrogênio de forma que a geração de calor não ultrapasse a capacidade de resfriamento do sistema. O processo tem um ciclo que pode variar entre 8 e 12 horas para atingir a conversão desejada, fazendo com que a capacidade de produção seja dependente de investimentos relativamente pesados em reatores agitados mecanicamente, que apresentam diversos riscos de segurança. Estudos anteriores não exploram em profundidade algumas potenciais áreas de otimização e redução das limitações dos processos, como a intensificação da transferência de calor, que permite a redução do tempo total de reação. Este trabalho avalia experimentalmente e propõe uma modelagem para a reação de epoxidação do óleo de soja em condições de remoção de calor máxima, o que permite que os reagentes sejam adicionados em sua totalidade no início da reação, simplificando o processo. Um modelo foi ajustado aos dados experimentais. O coeficiente de troca térmica, cuja estimativa teórica pode incorrer em erros significativos, foi calculado a partir de dados empíricos e incluído na modelagem, acrescentando um fator de variabilidade importante em relação aos modelos anteriores. O estudo propõe uma base teórica para potenciais alternativas aos processos adotados atualmente, buscando entender as condições necessárias e viáveis em escala industrial para redução do ciclo da reação, podendo inclusive apoiar potenciais estudos de implementação de um reator contínuo, mais eficiente e seguro, para esse processo.
Resumo:
Las matemáticas constituyen un lenguaje universal, más concretamente son fundamentales para la ciencia y la ingeniería. Más aún, podríamos decir que son no sólo la base de todo conocimiento, sino también de cualquier tipo de desarrollo científico y tecnológico. Especialmente significante resulta que la física, la astronomía o la química dependen en buena medida de ellas y que son muy útiles en las ciencias económicas y sociales o en la informática. De hecho, ciencias como la filosofía o la psicología se valen de modelos matemáticos para la resolución de sus problemas. Las matemáticas forman una ciencia lógica y deductiva, y con tal de poder extraer información acerca de ellas es indispensable conocer los objetos que se utilizan y las herramientas necesarias para manejarlos. Ahora bien, casi de forma inconsciente la primera reacción cuando se habla de matemáticas es de recelo ante una materia que para mucha gente parece incomprensible, abstracta y alejada de nuestra vida más cotidiana. En este sentido, este estudio explora la percepción que presentan nuestros estudiantes acerca de cómo las matemáticas interaccionan con nuestra vida cotidiana y cómo perciben su divulgación en las aulas o en el propio contexto por el que se mueven diariamente.
Resumo:
El presente proyecto se enmarca en el área de métodos formales para computación; el objetivo de los métodos formales es asegurar, a través de herramientas lógicas y matemáticas, que sistemas computacionales satisfacen ciertas propiedades. El campo de semántica de lenguajes de programación trata justamente de construir modelos matemáticos que den cuenta de las diferentes características de cada lenguaje (estado mutable, mecanismos de paso de parámetros, órdenes de ejecución, etc.); permitiendo razonar de una manera abstracta, en vez de lidiar con las peculiaridades de implementaciones o las vaguezas de descripciones informales. Como las pruebas formales de corrección son demasiado intrincadas, es muy conveniente realizar estos desarrollos teóricos con la ayuda de asistentes de prueba. Este proceso de formalizar y corrobar aspectos semánticos a través de un asistente se denomina mecanización de semántica. Este proyecto – articulado en tres líneas: semántica de teoría de tipos, implementación de un lenguaje con tipos dependientes y semántica de lenguajes imperativos con alto orden - se propone realizar avances en el estudio semántico de lenguajes de programación, mecanizar dichos resultados, e implementar un lenguaje con tipos dependientes con la intención de que se convierta, en un mediano plazo, en un asistente de pruebas. En la línea de semántica de teoría de tipos los objetivos son: (a) extender el método de normalización por evaluación para construcciones no contempladas aun en la literatura, (b) probar la adecuación de la implementación en Haskell de dicho método de normalización, y (c) construir nuevos modelos categóricos de teoría de tipos. El objetivo de la segunda línea es el diseño e implementación de un lenguaje con tipos dependientes con la intención de que el mismo se convierta en un asistente de pruebas. Una novedad de esta implementación es que el algoritmo de chequeo de tipos es correcto y completo respecto al sistema formal, gracias a resultados ya obtenidos; además la implementación en Haskell del algoritmo de normalización (fundamental para el type-checking) también tendrá su prueba de corrección. El foco de la tercera línea está en el estudio de lenguajes de programación que combinan aspectos imperativos (estado mutable) con características de lenguajes funcionales (procedimientos y funciones). Por un lado se avanzará en la mecanización de pruebas de corrección de compiladores para lenguajes Algollike. El segundo aspecto de esta línea será la definición de semánticas operacional y denotacional del lenguaje de programación Lua y la posterior caracterización del mismo a partir de ellas. Para lograr dichos objetivos hemos dividido las tareas en actividades con metas graduales y que constituyen en sí mismas aportes al estado del arte de cada una de las líneas. La importancia académica de este proyecto radica en los avances teóricos que se propone en la línea de semántica de teoría de tipos, en las contribución para la construcción de pruebas mecanizadas de corrección de compiladores, en el aporte que constituye la definición de una semántica formal para el lenguaje Lua, y en el desarrollo de un lenguaje con tipos dependientes cuyos algoritmos más importantes están respaldados por pruebas de corrección. Además, a nivel local, este proyecto permitirá incorporar cuatro integrantes al grupo de “Semántica de la programación”.
Resumo:
Com este trabalho pretendo compreender o papel das histórias com matemática na motivação dos alunos durante a resolução de tarefas matemáticas, partindo das seguintes questões de investigação: a) Qual a relação que os alunos estabelecem com tarefas matemáticas construídas a partir de modelos matemáticos presentes em histórias? b) Que tipo de conhecimentos matemáticos surgem quando os alunos resolvem tarefas construídas a partir de um modelo matemático presente numa história? c) Como se desenvolve a comunicação matemática dos alunos quando se utilizam tarefas construídas a partir de modelos existentes em histórias? O trabalho foi realizado com uma turma de 2º e 3º anos de escolaridade, que têm desenvolvido com a professora cooperante, ao longo do tempo, um excelente trabalho na disciplina de matemática. Para o desenvolvimento deste estudo optei por utilizar uma metodologia de investigação qualitativa, como investigadora participante. Saliento, ainda, que a recolha de dados ocorreu ao longo do estágio da Unidade Curricular: Prática de Ensino Supervisionado. Durante um total de onze aulas, a análise de dados baseou-se em registos de vídeo, produções individuais dos alunos, produções dos alunos em grande grupo, e ainda na observação das interações geradas durante a análise e discussão das estratégias apresentadas pelos alunos, durante a realização das tarefas. As tarefas matemáticas apresentadas aos alunos, para o desenvolvimento deste estudo, surgiram de modelos matemáticos presentes no conto “Ainda não estão contentes?”, inserido no livro Conto Contigo, de António Torrado. Durante a realização das tarefas foi possível desenvolver conceitos que se inserem nos temas matemáticos de Números e Operações e Medida. Os resultados deste trabalho, poderão ser desenvolvidos no futuro, partindo de outros estudos e utilizando diferentes modelos matemáticos, outras histórias, outros contextos educativos, de modo a que seja possível provar que a matemática não tem de ser vista como uma disciplina difícil e angustiante para os alunos, porque existe sempre a hipótese de através de histórias, envolver os alunos nas suas aprendizagens, motivando-os para realizar tarefas matemáticas e desenvolver conhecimento matemático.
Resumo:
O objetivo deste trabalho é avaliar o desempenho de longo prazo das empresas que abrem o capital no Brasil. Os fenômenos de (1) valorização no primeiro dia de negócios pós-IPO (underpricing) seguido de (2) desempenho inferior ao mercado no longo prazo (long-run underperformance) foram amplamente documentados em trabalhos de outros autores. O foco do estudo está em verificar a persistência dessa baixa performance quando alongamos o período de avaliação para 5 anos. Adicionalmente, o estudo pretende entender que fatores são determinantes no desempenho destas ações no longo prazo. O trabalho analisa 128 IPOs ocorridos no período de 2004 a 2012 na Bovespa. Os resultados apontam para evidências estatisticamente significantes de underpricing. Este underpricing foi mais acentuado entre os anos de 2004 a 2008, período precursor da crise financeira do subprime. Quando se analisa a performance de longo prazo os resultados apontam que a carteira de IPOs apresentou performance abaixo do mercado até o 29° mês. Os IPOs lançados no período pré-crise do subprime tiveram performance abaixo do mercado após 3 anos, enquanto que os IPOs lançados no pós-crise tiveram retorno acima do mercado para 3 e 5 anos. Não foi identificada a persistência da baixa performance dos IPOs além do 29° mês. Três variáveis principais mostraram significância na explicação dos retornos de longo prazo: (1) o período de lançamento das ações, (2) o percentual de alocação de investidores estrangeiros, (3) e a reputação do coordenador da oferta. Os IPOs lançados no período pós-crise do subprime observaram melhor performance no longo prazo. Também apresentaram melhor performance os IPOs com maior presença de investidor estrangeiro. Adicionalmente, existe uma relação inversa entre a reputação do coordenador líder da oferta e a performance de longo prazo.
Resumo:
A análise de sentimentos é uma ferramenta com grande potencial, podendo ser aplicada em vários contextos. Esta dissertação tem com o objetivo analisar a viabilidade da aplicação da técnica numa base capturada do site de reclamações mais popular do Brasil, com a aplicação de técnicas de processamento de linguagem natural e de aprendizagem de máquinas é possível identificar padrões na satisfação ou insatisfação dos consumidores.
Resumo:
Matemática y sociedad, una relación determinante en la elección de temas de investigación. El caso de la Ciencia de la Información Universidad Nacional de La Plata. Departamento de Bibliotecología. Se presenta un tema de llamativa vigencia en un contexto cambiante como el actual ya que, a pesar de que han pasado más de tres décadas desde los primeros trabajos de L. Santaló, S. Papert y otros, sobre el tema, todo parece seguir como entonces. Una sociedad que abrió sus puertas a las tecnologías de la información y las comunicaciones en muy poco tiempo, permanece inmune a los embates de los profesores de matemática. Se expondrá sobre experiencias de aplicaciones de la matemática en facultades de humanidades de universidades españolas y argentinas, en el marco de los Estudios Métricos de la Información (EMI), y sobre experiencias de incorporación de los EMI a los estudios de Bibliotecología y Ciencia de la Información. Se presentará la problemática de la utilización de modelos matemáticos en temas de recuperación de información en ambiente de bases de datos y en Internet, así como en la evaluación de la efectividad de los sistemas de recuperación de información.
Resumo:
The principal effluent in the oil industry is the produced water, which is commonly associated to the produced oil. It presents a pronounced volume of production and it can be reflected on the environment and society, if its discharge is unappropriated. Therefore, it is indispensable a valuable careful to establish and maintain its management. The traditional treatment of produced water, usualy includes both tecniques, flocculation and flotation. At flocculation processes, there are traditional floculant agents that aren’t well specified by tecnichal information tables and still expensive. As for the flotation process, it’s the step in which is possible to separate the suspended particles in the effluent. The dissolved air flotation (DAF) is a technique that has been consolidating economically and environmentally, presenting great reliability when compared with other processes. The DAF is presented as a process widely used in various fields of water and wastewater treatment around the globe. In this regard, this study was aimed to evaluate the potential of an alternative natural flocculant agent based on Moringa oleifera to reduce the amount of oil and grease (TOG) in produced water from the oil industry by the method of flocculation/DAF. the natural flocculant agent was evaluated by its efficacy, as well as its efficiency when compared with two commercial flocculant agents normally used by the petroleum industry. The experiments were conducted following an experimental design and the overall efficiencies for all flocculants were treated through statistical calculation based on the use of STATISTICA software version 10.0. Therefore, contour surfaces were obtained from the experimental design and were interpreted in terms of the response variable removal efficiency TOG (total oil and greases). The plan still allowed to obtain mathematical models for calculating the response variable in the studied conditions. Commercial flocculants showed similar behavior, with an average overall efficiency of 90% for oil removal, however it is the economical analysis the decisive factor to choose one of these flocculant agents to the process. The natural alternative flocculant agent based on Moringa oleifera showed lower separation efficiency than those of commercials one (average 70%), on the other hand this flocculant causes less environmental impacts and it´s less expensive
Resumo:
Actually, Brazil is one of the larger fruit producer worldwide, with most of its production being consumed in nature way or either as juice or pulp. It is important to highlig ht in the fruit productive chain there are a lot lose due mainly to climate reasons, as well as storage, transportation, season, market, etc. It is known that in the pulp and fruit processing industy a yield of 50% (in mass) is usually obtained, with the other part discarded as waste. However, since most this waste has a high nutrient content it can be used to generate added - value products. In this case, drying plays an important role as an alternative process in order to improve these wastes generated by the fruit industry. However, despite the advantage of using this technique in order to improve such wastes, issues as a higher power demand as well as the thermal efficiency limitation should be addressed. Therefore, the control of the main variables in t his drying process is quite important in order to obtain operational conditions to produce a final product with the target specification as well as with a lower power cost. M athematical models can be applied to this process as a tool in order to optimize t he best conditions. The main aim of this work was to evaluate the drying behaviour of a guava industrial pulp waste using a batch system with a convective - tray dryer both experimentally and using mathematical modeling. In the experimental study , the dryin g carried out using a group of trays as well as the power consume were assayed as response to the effects of operational conditions (temperature, drying air flow rate and solid mass). Obtained results allowed observing the most significant variables in the process. On the other hand, the phenomenological mathematical model was validated and allowed to follow the moisture profile as well as the temperature in the solid and gas phases in every tray. Simulation results showed the most favorable procedure to o btain the minimum processing time as well as the lower power demand.
Resumo:
Water injection in oil reservoirs is a recovery technique widely used for oil recovery. However, the injected water contains suspended particles that can be trapped, causing formation damage and injectivity decline. In such cases, it is necessary to stimulate the damaged formation looking forward to restore the injectivity of the injection wells. Injectivity decline causes a major negative impact to the economy of oil production, which is why, it is important to foresee the injectivity behavior for a good waterflooding management project. Mathematical models for injectivity losses allow studying the effect of the injected water quality, also the well and formation characteristics. Therefore, a mathematical model of injectivity losses for perforated injection wells was developed. The scientific novelty of this work relates to the modeling and prediction of injectivity decline in perforated injection wells, considering deep filtration and the formation of external cake in spheroidal perforations. The classic modeling for deep filtration was rewritten using spheroidal coordinates. The solution to the concentration of suspended particles was obtained analytically and the concentration of the retained particles, which cause formation damage, was solved numerically. The acquisition of the solution to impedance assumed a constant injection rate and the modified Darcy´s Law, defined as being the inverse of the normalized injectivity by the inverse of the initial injectivity. Finally, classic linear flow injectivity tests were performed within Berea sandstone samples, and within perforated samples. The parameters of the model, filtration and formation damage coefficients, obtained from the data, were used to verify the proposed modeling. The simulations showed a good fit to the experimental data, it was observed that the ratio between the particle size and pore has a large influence on the behavior of injectivity decline.