979 resultados para Teorema de Gauss Bonnet


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo intenta reconstruir las prácticas visuales de relevamiento de los topógrafos de la Dirección de Minas. En este caso analizaremos los materiales visuales que realizó Felipe E. Godoy Bonnet para la realización de la Hoja topográfica Sierra Apeleg (1980). En el proceso de construcción de la cartografía topográfica encontramos distintas instancias: gabinete / precampo, campo y gabinete / poscampo. En cada una de ellas, el topógrafo es capaz de construir diferentes tipos de paisajes, aunque todos remitan al mismo espacio. En la primera de estas etapas, el topógrafo comienza a visualizar mentalmente un paisaje (paisaje topográfico imaginado) a partir de la observación de materiales cartográficos recopilados antes de aventurarse en el terreno. En la segunda, ya en el campo, el topógrafo activa su agudeza visual para reconstruir y reformular el paisaje previamente imaginado y lo completa con datos empíricos (paisaje topográfico medido). En la etapa de trabajo de poscampo, se comienza a dibujar -en lenguaje cartográfico- el paisaje que imaginó, vio y midió el topógrafo (paisaje topográfico dibujado). Una vez terminado el trabajo, cualquier observador entrenado en los códigos cartográficos puede decodificar y leer el mapa, dar volumen a las líneas de nivel y (re)construir un nuevo paisaje topográfico imaginado (ya que el mapa se puede convertir en un insumo para ir a relevar nuevamente el terreno). Intentamos establecer los primeros lineamientos para pensar qué son los paisajes topográficos, la variedad de registros que implican, los lenguajes que articulan y cómo es el proceso que ayuda a su construcción. A su vez, pensamos que la construcción de los paisajes topográficos varía a lo largo del proceso cartográfico y de sus lecturas posteriores. Esas variaciones pueden ser pensadas en términos de un agenciamiento, como lo propone Alfred Gell (1997).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo intenta reconstruir las prácticas visuales de relevamiento de los topógrafos de la Dirección de Minas. En este caso analizaremos los materiales visuales que realizó Felipe E. Godoy Bonnet para la realización de la Hoja topográfica Sierra Apeleg (1980). En el proceso de construcción de la cartografía topográfica encontramos distintas instancias: gabinete / precampo, campo y gabinete / poscampo. En cada una de ellas, el topógrafo es capaz de construir diferentes tipos de paisajes, aunque todos remitan al mismo espacio. En la primera de estas etapas, el topógrafo comienza a visualizar mentalmente un paisaje (paisaje topográfico imaginado) a partir de la observación de materiales cartográficos recopilados antes de aventurarse en el terreno. En la segunda, ya en el campo, el topógrafo activa su agudeza visual para reconstruir y reformular el paisaje previamente imaginado y lo completa con datos empíricos (paisaje topográfico medido). En la etapa de trabajo de poscampo, se comienza a dibujar -en lenguaje cartográfico- el paisaje que imaginó, vio y midió el topógrafo (paisaje topográfico dibujado). Una vez terminado el trabajo, cualquier observador entrenado en los códigos cartográficos puede decodificar y leer el mapa, dar volumen a las líneas de nivel y (re)construir un nuevo paisaje topográfico imaginado (ya que el mapa se puede convertir en un insumo para ir a relevar nuevamente el terreno). Intentamos establecer los primeros lineamientos para pensar qué son los paisajes topográficos, la variedad de registros que implican, los lenguajes que articulan y cómo es el proceso que ayuda a su construcción. A su vez, pensamos que la construcción de los paisajes topográficos varía a lo largo del proceso cartográfico y de sus lecturas posteriores. Esas variaciones pueden ser pensadas en términos de un agenciamiento, como lo propone Alfred Gell (1997).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si presenta il concetto di politopo convesso e se ne forniscono alcuni esempi, poi si introducono alcuni metodi di base e risultati significativi della teoria dei politopi. In particolare si dimostra l'equivalenza tra le due definizioni di H-politopo e di V-politopo, sfruttando il metodo di eliminazione di Fourier-Motzkin per coni. Tutto ciò ha permesso di descrivere, grazie al lemma di Farkas, alcune importanti costruzioni come il cono di recessione e l'omogeneizzazione di un insieme convesso.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El ?nfasis que se hace en el Teorema Fundamental de la Aritm?tica en la educaci?n b?sica no es muy amplio pese a la importancia y los conocimientos que puede movilizar su ense?anza en el aprendizaje de los estudiantes, es por ello que el presente trabajo de grado se caracteriza por la identificaci?n de las concepciones de los profesores de matem?ticas sobre el Teorema Fundamental de la Aritm?tica, desde una perspectiva Hist?rico-Epistemol?gica, a partir de la cual se indaga sobre los obst?culos epistemol?gicos que se presentaron en la construcci?n del tema central. Se considera que es necesario analizar las concepciones de los profesores, debido a que ?stas caracterizan no solo el conocimiento del profesor sino que tambi?n permean la forma en que se desarrollan los conocimientos en el aula de clase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Investigación orientada al Análisis Complejo, presentando la similitud entre la serie de Laurent y la serie de Taylor (excepto cuando la función no es holomorfa) estableciendo la relación que existe entre el residuo y la serie de Laurent. El Teorema del Residuo, es aplicado solamente cuando el número de puntos singulares es finito. Asimismo, se aplicó el cálculo de residuos para evaluar integrales de funciones cuyas trayectorias encierran varias singularidades independientes de cualquier tipo de singularidad (polo, removibles o esenciales). En conclusión, se encontró que es imposible aplicar el teorema de Cauchy para caminos cerrados que encierran puntos singulares, por consiguiente, el teorema del residuo da solución a ese tipo de problemas. Finalmente se aplicó el Teorema del Residuo para sumar series que relacionan el número de polos con el número de enteros en el interior de un camino cerrado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El teorema del punto fijo es aplicable a un tipo especial de sucesiones; dicho teorema es utilizado en muchas ciencias aplicadas (economía, ingeniería, informática) así como en las ciencias fundamentales (física, química, biología, etc.). El trabajo investiga la teoría del punto fijo y algunas aplicaciones del Teorema del Punto Fijo de Banach, para elaborar un documento en el que se presenten algunas aplicaciones y la teoría del punto fijo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se desarrolla un estudio de todas las herramientas necesarias para llegar al teorema de los ceros de Hilbert el cual luego se demuestra en sus formas débil y fuerte. Se introducen los conceptos básicos relacionados con los anillos noetherianos y las variedades algebraicas afines que son fundamentales para el estudio del teorema de los ceros de Hilbert. Es por ello que estudiamos detenidamente el concepto de ideal primo e ideal primario, como también las distintas operaciones entre ideales, en particular la descomposición primaria de ideales. En seguida se desarrollan las demostraciones de algunos de los teoremas importantes de los anillos noetherianos, haciendo uso de la descomposición primaria de un ideal y un resultado fundamental: el teorema de la base de Hilbert. Además se desarrollan las definiciones, proposiciones, teoremas de una variedad algebraica afín y el ideal asociado a una variedad, así como también el ideal de una variedad y lo más interesante es la descomposición de ideales en variedades algebraicas afines, como la condición de cadena descendente de variedades. También se hace la aplicación de los resultados obtenidos en los capítulos anteriores, para demostrar el teorema de los ceros de Hilbert en su forma dedil así como en la forma fuerte. Finalmente adoptamos una Topología que es muy débil pero sorprendentemente útil ocupando los resultados anteriores, probando propiedades que cumple esta topología como la cerradura topológica y compacidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con el objeto no de introducir al estudiante universitario a la noción de función inversa sino de reorganizar ideas, darle significado a unas y resignificar otras (es decir, ayudarlo a aprehender el concepto) se elaboró un razonamiento, basado en ideas previas del alumno, que concluye en el Teorema del tubo fluorescente. Este Teorema permite, a partir del gráfico de una función biyectiva, obtener el de su inversa de un modo más sencillo y seguro que el de los textos tradicionales y, simultáneamente, aporta un claro mensaje conceptual. El cambio en la percepción del tema (en el 75 a 80% de los estudiantes) y la seducción de la inversa “instantánea” son superados por la idea (desde ahora evidente) que una función y su inversa son expresiones de una misma relación observada desde distintos puntos de vista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto es construir un banco de prácticas destinado al y análisis del impacto de un chorro contra diferentes obstáculos y estudiar dicho efecto mediante el teorema de cantidad de movimiento. Para ello se ha diseñado un prototipo basado en el banco instalado en la Escuela Técnica Superior de Ingenieros de Bilbao. Las diferentes piezas necesarias para la construcción del prototipo se realizaran mediante diferentes medios, algunas de ellas se encargaran a órganos externos a la escuela y otras se fabricaran con equipo disponible en el propio centro. Para el diseño se han tenido en cuenta parámetros y cálculos como los de la instalación hidráulica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fil: Conte, Rodrigo. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Financial processes may possess long memory and their probability densities may display heavy tails. Many models have been developed to deal with this tail behaviour, which reflects the jumps in the sample paths. On the other hand, the presence of long memory, which contradicts the efficient market hypothesis, is still an issue for further debates. These difficulties present challenges with the problems of memory detection and modelling the co-presence of long memory and heavy tails. This PhD project aims to respond to these challenges. The first part aims to detect memory in a large number of financial time series on stock prices and exchange rates using their scaling properties. Since financial time series often exhibit stochastic trends, a common form of nonstationarity, strong trends in the data can lead to false detection of memory. We will take advantage of a technique known as multifractal detrended fluctuation analysis (MF-DFA) that can systematically eliminate trends of different orders. This method is based on the identification of scaling of the q-th-order moments and is a generalisation of the standard detrended fluctuation analysis (DFA) which uses only the second moment; that is, q = 2. We also consider the rescaled range R/S analysis and the periodogram method to detect memory in financial time series and compare their results with the MF-DFA. An interesting finding is that short memory is detected for stock prices of the American Stock Exchange (AMEX) and long memory is found present in the time series of two exchange rates, namely the French franc and the Deutsche mark. Electricity price series of the five states of Australia are also found to possess long memory. For these electricity price series, heavy tails are also pronounced in their probability densities. The second part of the thesis develops models to represent short-memory and longmemory financial processes as detected in Part I. These models take the form of continuous-time AR(∞) -type equations whose kernel is the Laplace transform of a finite Borel measure. By imposing appropriate conditions on this measure, short memory or long memory in the dynamics of the solution will result. A specific form of the models, which has a good MA(∞) -type representation, is presented for the short memory case. Parameter estimation of this type of models is performed via least squares, and the models are applied to the stock prices in the AMEX, which have been established in Part I to possess short memory. By selecting the kernel in the continuous-time AR(∞) -type equations to have the form of Riemann-Liouville fractional derivative, we obtain a fractional stochastic differential equation driven by Brownian motion. This type of equations is used to represent financial processes with long memory, whose dynamics is described by the fractional derivative in the equation. These models are estimated via quasi-likelihood, namely via a continuoustime version of the Gauss-Whittle method. The models are applied to the exchange rates and the electricity prices of Part I with the aim of confirming their possible long-range dependence established by MF-DFA. The third part of the thesis provides an application of the results established in Parts I and II to characterise and classify financial markets. We will pay attention to the New York Stock Exchange (NYSE), the American Stock Exchange (AMEX), the NASDAQ Stock Exchange (NASDAQ) and the Toronto Stock Exchange (TSX). The parameters from MF-DFA and those of the short-memory AR(∞) -type models will be employed in this classification. We propose the Fisher discriminant algorithm to find a classifier in the two and three-dimensional spaces of data sets and then provide cross-validation to verify discriminant accuracies. This classification is useful for understanding and predicting the behaviour of different processes within the same market. The fourth part of the thesis investigates the heavy-tailed behaviour of financial processes which may also possess long memory. We consider fractional stochastic differential equations driven by stable noise to model financial processes such as electricity prices. The long memory of electricity prices is represented by a fractional derivative, while the stable noise input models their non-Gaussianity via the tails of their probability density. A method using the empirical densities and MF-DFA will be provided to estimate all the parameters of the model and simulate sample paths of the equation. The method is then applied to analyse daily spot prices for five states of Australia. Comparison with the results obtained from the R/S analysis, periodogram method and MF-DFA are provided. The results from fractional SDEs agree with those from MF-DFA, which are based on multifractal scaling, while those from the periodograms, which are based on the second order, seem to underestimate the long memory dynamics of the process. This highlights the need and usefulness of fractal methods in modelling non-Gaussian financial processes with long memory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Three recent papers published in Chemical Engineering Journal studied the solution of a model of diffusion and nonlinear reaction using three different methods. Two of these studies obtained series solutions using specialized mathematical methods, known as the Adomian decomposition method and the homotopy analysis method. Subsequently it was shown that the solution of the same particular model could be written in terms of a transcendental function called Gauss’ hypergeometric function. These three previous approaches focused on one particular reactive transport model. This particular model ignored advective transport and considered one specific reaction term only. Here we generalize these previous approaches and develop an exact analytical solution for a general class of steady state reactive transport models that incorporate (i) combined advective and diffusive transport, and (ii) any sufficiently differentiable reaction term R(C). The new solution is a convergent Maclaurin series. The Maclaurin series solution can be derived without any specialized mathematical methods nor does it necessarily involve the computation of any transcendental function. Applying the Maclaurin series solution to certain case studies shows that the previously published solutions are particular cases of the more general solution outlined here. We also demonstrate the accuracy of the Maclaurin series solution by comparing with numerical solutions for particular cases.