768 resultados para teoría estocástica y análisis de series temporales
Resumo:
Resumen tomado del autor
Resumo:
Las recientes investigaciones sobre el pensamiento pedagógico del profesor suponen un nuevo enfoque del estudio de los procesos de enseñanza y aprendizaje que se desarrollan en el ámbito escolar. Incidir en el análisis de los procesos que desencadena el profesor como factores claves de la eficacia y calidad de la enseñanza, supone un vuelco importante y una revisión radical de los planteamientos teóricos y orientaciones vigentes en nuestro contexto pedagógico. Existen dos conclusiones básicas importantes: distinción entre enseñanza preactiva y enseñanza interactiva que supone la aceptación de un modelo determinado o didáctico que supone la diferencia de papeles y profunda separación entre el profesor actor y el alumno receptor. Dentro de este modelo didáctico pueden abrirse frecuentemente paréntesis de reflexión, análisis y reorganización del proyecto en curso, tareas claras de un proceso de planificación; la segunda conclusión sería que el pensamiento del profesor debe ser objeto de trabajo fundamental en la formación permanente del profesorado. Tanto las teorías como las estrategias metodológicas, que componen la estructura semántica del profesor son vitales para la planificación y desarrollo de cualquier intervención educativa. Por ello, deben ser objeto de trabajo especial en la formación del profesor.
Resumo:
Resumen tomado de la publicación
Resumo:
Planificar la enseñanza de la Matemática en la universidad, ciclo 1, y elaborar modelos para las pruebas de acceso. Conocer el uso de la Matemática en la práctica laboral. Determinar sistema de acceso a la universidad, contenidos matemáticos de COU y pruebas matemáticas de Selectividad, más idóneos, mediante un análisis comparado con otros países. Elaborar estudios introductorios de los principales temas matemáticos, que sirvan de ayuda a un profesorado heterogéneo. Número indeterminado de licenciados en Ingeniería, Física, Química, Biología, Medicina, Farmacia, Sociología, Economía, Psicología y Pedagogía en activo. Sistema de acceso a la universidad, pruebas y programas matemáticos en varios países. Contenidos matemáticos usuales en COU y la universidad. Se consideran las nociones matemáticas empleadas por la muestra en su práctica laboral. Sistema de acceso a la Universidad vigentes en Francia, RDA, Suiza, Austria, Gran Bretaña y EEUU. Contenidos matemáticos de los programas de las pruebas de acceso de varios países y España. Tipo de pruebas matemáticas empleado en varios países. Esta metodología: visión introductoria, enfoque histórico y alternativo y apoyo bibliográfico para cada contenido. Se detalla qué Matemáticas emplean los profesionales. Cálculo y análisis se usan bastante en todo sector laboral, álgebra y geometría, sobre todo en Ingenieria, por su relación con la tecnología, probabilidad y estadística, las más usadas, en carreras experimentales. Se detallan sistemas de acceso, pruebas y contenidos matemáticos en varios países, se recomienda que los examenes sean independientes para cada materia y los tribunales, nombrados por las universidades, tengan un representante del centro escolar. Las universidades dicten normas de acceso sin considerar expedientes académicos, el programa matemático sea más amplio y menos universitario, con métodos numéricos sencillos y aplicaciones prácticas. El examen consta de 2 partes, multirrespuesta y problemas, que evalúen objetivos de conocimiento, comprensión y aplicación y de síntesis y análisis. Se elaboraron 10 monografías: no reales, sucesiones y series. Convergencia y continuidad, espacios métricos y estructuras topológicas y algebraicas, cálculo diferencial, optimización, estructuras del álgebra, polinomios, álgebra lineal, geometría, probabilidad, estadística. Se han elaborado tres informes cualitativos, modalidades existentes en las pruebas de acceso a la universidad, contenidos de esas pruebas y enfoque didáctico que debe darse a las asignaturas matemáticas en el primer ciclo universitario, y un estudio de campo, cuantificación del uso de diversos tópicos matemáticos por parte de los titulados superiores, en la docencia, en la investigación y en el ejercicio profesional, como contribución a la mejora del nivel didáctico de las asignaturas de Matemáticas que se imparten en la universidad y del actual sistema de acceso a la Enseñanza Superior.
Resumo:
Se investiga acerca del grado de conciencia que los profesores presentan de su comportamiento no-verbal en las interacciones diarias con sus alumnos en el aula, desde Preescolar hasta el Ciclo Superior de la EGB. Estas interacciones comunicativas están relacionadas no solamente con el aprendizaje del alumno, sino también con el establecimiento de un clima emocional y psicológico positivo. Los resultados y conclusiones derivadas de la investigación sugieren implicaciones en las áreas de Innovación y Desarrollo Curricular y en los programas de Formación de Profesores que incluyan prescripciones normativas para incrementar la eficacia en la enseñanza. El estudio se basa en cuatro centros de diferentes zonas de Badajoz en los que existen profesores implicados en proyectos de tipo educativo y miembros de asociaciones de profesores. En total siete maestros de las distintas áreas; dos de Ciclo Inicial, dos de Ciclo Medio y dos profesores de Ciclo Superior. La observación es el método fundamental que se utiliza en este estudio de campo, para captar el comportamiento no-verbal de los profesores en el aula escolar. Todo ello se registra en vídeo para recoger la conducta del profesor, evitar condicionamientos a la hora de observar y tomar notas del comportamiento no-verbal del profesor, y evitar que se produzca la 'estimulación del recuerdo', en la que los profesores en su mayoría no son capaces de dar respuestas verbales sobre su conducta en clase. A continuación, se describen todos los comportamientos observados y se procede a la realización de entrevistas a cada uno de los profesores con la visualización de la grabación entera, y formulando preguntas sobre lo que descubren que hacen acerca de sus comportamientos. Por último, se les entrega un cuestionario donde se pretende recabar información precisa sobre aspectos concretos de interés sobre el tema. La escasa formación de los profesores acerca de las funciones de la comunicación no-verbal les lleva a adoptar posiciones teóricas-ideales en la interpretación de sus gestos y movimientos corporales. La propia personalidad y pensamiento del profesor genera estilos de comportamientos orientados a favorecer los contenidos de aprendizaje o el aspecto interactivo. La cultura y el rol social del profesor condiciona, en ocasiones, determinadas manifestaciones, señalando qué comportamientos debe exhibir o inhibir en sus actuaciones didácticas. El propio ambiente o contexto del aula que, con sus reglas formales e informales de participación y el tipo de actividades que se lleven a cabo, determinan el carácter idiosincrásico de cada una de las clases analizadas. Las directrices del Sistema Educativo en transformación inducen a los profesores en las interpretaciones de sus manifiestaciones no-verbales a justificar y apoyar aproximaciones preconcebidas en la enseñanza.
Resumo:
Estudiar el análisis de las faltas ortográficas cometidas por los discentes de Gran Canaria. Extracción de los vocablos que encierran mayor dificultad para su correcta escritura. Determinar los tipos de errores ortográficos que el alumnado de Gran Canaria comete con mayor frecuencia. Observación de algunos de los aspectos que de forma indirecta pueden influir en el nivel ortográfico del escolar. Para ello examinar la relación existente entre el número de errores cometidos en los diferentes temas de redacción y las variables sexo, edad, localidad, tipo de enseñanza y profesión del progenitor. Se trabaja a través de un muestreo constituido por 1700 redacciones, realizadas por los alumnos que en los años escolar 1982-83 cursaban quito de Educación General Básica en centros escolares de la isla de Gran Canaria. Se visitan un total de 33 centros de enseñanza situados en los diversos municipios que constituyen la isla. La corrección de las redacciones y la evaluación posterior de los resultados obtenidos, permite la configuración de varios listados: de cacografías, de tipos de errores ortográficos y de vocablos que presentan dificultades ortográficas. Así mismo, se observa la influencia que las variables localidad, sexo, tipo de enseñanza, edad y estatus socioeconómico de la familia, pueden tener en el rendimiento ortográfico del alumnado. Para la realización de la prueba se diseño una plantilla que estuviera encabezada por los datos personales del alumno: nombre, edad, centro en el que cursaba sus estudios, localidad y profesión del padre. Esto permite dilucitar el ambiente en que cada escolar desarrollaba su actividad, con el fin de observar las posibles relaciones establecidas entre el medio y las cacografías que presentara. Se comprueba que las cacografías más usuales entre los alumnos de Gran Canaria, son las relativas a la acentuación de las palabras, tendiendo a omitir el acento más que a utilizarlo incorrectamente, y las de transformación de letras, entre las que se destacan los errores que se han considerado de origen fonético. Los vocablos que se constatan con mayor índice de error son: también y más. Los cuales encabezan los listados de cacografías y de vocablos más significativos. Desde el punto de vista gramatical, se observa que donde más errores comenten los escolares es en los sustantivos y en los verbos, hecho que se justifica ante la usualidad lingüística de los mismos. Es evidente la influencia que el sector de población, tipo de enseñanza y sexo ejercen en el alumnado condicionando su aprendizaje ortográfico. Así, muestran mejor rendimiento en esta disciplina las alumnas del sector urbano que efectúan sus estudios en centros de enseñanza privada, mientras que el peor nivel ortográfico se halla entre los varones del sector turístico que asisten a colegios públicos. El rendimiento ortográfico, es respectivamente, directa e inversamente proporcional al estrato socio-económico del alumno y a su edad. La cantidad de incorrecciones puede estar en función del tema de la composición y de la influencia emocional que éste suscite en el escolar. No se observa en el estudio mejor rendimiento ortográfico en los temas que se encuentran incluidos en las áreas de aprendizaje.
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Programa de Doctorado: Formación del Profesorado
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
La evolución de los precios de los alimentos en años recientes se ha evaluado en numerosos estudios considerando: el análisis de los márgenes comerciales y la evolución temporal de los precios, si bien, la mayoría de ellos centrados en la óptica del consumidor. En este artículo se analizó la evolución temporal de los precios de los alimentos en España en el período 2000-2009 desde el punto de vista del agricultor y ganadero. Concretamente se utilizó información relacionada con los precios percibidos, precios pagados y el índice de precios de consumo (IPC), y con técnicas de análisis de series temporales se analizó la existencia de relaciones de equilibrio a largo plazo entre las series. Los resultados reflejan una relación de equilibrio a largo plazo entre: los precios percibidos y pagados; el IPC y los precios percibidos. Las principales conclusiones muestran que, a pesar de los desequilibrios existentes a corto plazo, a largo plazo los precios percibidos y pagados tienden a una situación de equilibrio. Un elemento importante en la evolución del IPC lo constituyen los precios percibidos por los productos en el sector primario. Sin embargo, la fijación de los precios de los insumos (pagados) en el sector primario; lejos de regirse en el largo plazo por la evolución del IPC; no muestra una relación significativa con dicho indicador.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.
Resumo:
El objetivo de este proyecto de investigación es comparar dos técnicas matemáticas de aproximación polinómica, las aproximaciones según el criterio de mínimos cuadrados y las aproximaciones uniformes (“minimax”). Se describen tanto el mercado actual del cobre, con sus fluctuaciones a lo largo del tiempo, como los distintos modelos matemáticos y programas informáticos disponibles. Como herramienta informática se ha seleccionado Matlab®, cuya biblioteca matemática es muy amplia y de uso muy extendido y cuyo lenguaje de programación es suficientemente potente para desarrollar los programas que se necesiten. Se han obtenido diferentes polinomios de aproximación sobre una muestra (serie histórica) que recoge la variación del precio del cobre en los últimos años. Se ha analizado la serie histórica completa y dos tramos significativos de ella. Los resultados obtenidos incluyen valores de interés para otros proyectos. Abstract The aim of this research project is to compare two mathematical models for estimating polynomial approximation, the approximations according to the criterion of least squares approximations uniform (“Minimax”). Describes both the copper current market, fluctuating over time as different computer programs and mathematical models available. As a modeling tool is selected main Matlab® which math library is the largest and most widely used programming language and which is powerful enough to allow you to develop programs that are needed. We have obtained different approximating polynomials, applying mathematical methods chosen, a sample (historical series) which indicates the fluctuation in copper prices in last years. We analyzed the complete historical series and two significant sections of it. The results include values that we consider relevant to other projects
Resumo:
El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.
Resumo:
Este Proyecto Fin de Carrera pretende desarrollar una serie de unidades didácticas orientadas a mejorar el aprendizaje de la teoría de procesado digital de señales a través de la aplicación práctica. Con tal fin, se han diseñado una serie de prácticas que permitan al alumno alcanzar un apropiado nivel de conocimiento de la asignatura, la adquisición de competencias y alcanzar los resultados de aprendizaje previstos. Para desarrollar el proyecto primero se ha realizado una selección apropiada de los contenidos de la teoría de procesado digital de señales en relación con los resultados de aprendizaje esperados, seguidamente se han diseñado y validado unas prácticas basadas en un entorno de trabajo basado en MATLAB y DSP, y por último se ha redactado un manual de laboratorio que combina una parte teórica con su práctica correspondiente. El objetivo perseguido con la realización de estas prácticas es alcanzar un equilibrio teórico/práctico que permita sacar el máximo rendimiento de la asignatura desde el laboratorio, trabajando principalmente con el IDE Code Composer Studio junto con un kit de desarrollo basado en un DSP. ABSTRACT. This dissertation intends to develop some lessons oriented to improve about the digital signal processing theory. In order to get this objective some practices have been developed to allow to the students to achieve an appropriate level of knowledge of the subject, acquire skills and achieve the intended learning outcomes. To develop the project firstly it has been made an appropriate selection of the contents of the digital signal processing theory related with the expected results. After that, five practices based in a work environment based on Matlab and DSP have been designed and validated, and finally a laboratory manual has been drafted that combines the theoretical part with its corresponding practice. The objective with the implementation of these practices is to achieve a theoretical / practical balance to get the highest performance to the subject from the laboratory working mainly with the Code Composer Studio IDE together a development kit based on DSP.