1000 resultados para Técnicas de predicción estadística
Resumo:
Monográfico con el título: 'Aportaciones de las nuevas tecnologías a la investigación educativa'. Resumen basado en el de la publicación
Resumo:
Programa de doctorado: Tecnología industrial
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
El objetivo de esta tesis ha sido cubrir el hueco existente en la literatura en relación con la cuestión de la supuesta superioridad de los modelos de predicción de insolvencia empresarial "descentrados" (construidos sobre la base de una muestra de empresas pertenecientes a diversos sectores económicos) frente a los modelos de predicción de la insolvencia "centrados" (construidos con una muestra de empresas pertenecientes a un solo sector de actividad). Un análisis de la literatura previa sobre predicción de insolvencia empresarial permitió constatar la existencia de un patrón definido por lo que se refería a la construcción de modelos descentrados frente a modelos centrados, siendo los primeros mucho más numerosos que los segundos. Sin embargo, no fue posible identificar ninguna tendencia, ni a favor ni en contra, en el uso de un tipo de modelo u otro, por lo que no resultó posible inducir una conclusión definitiva sobre la superioridad de un tipo de modelo frente a otro a la hora de pronosticar la insolvencia empresarial. Para resolver esta cuestión, se tomó una base de datos formada por empresas, tanto solventes como insolventes, pertenecientes a cinco sectores de actividad diferenciados: agricultura, industria, construcción, comercio y servicios, y sector de hostelería, a partir de los datos proporcionados por SABI (Sistema de Análisis de Balances Ibéricos). Los datos utilizados para este estudio se correspondieron al periodo comprendido entre el año 2010 y el año 2012. Asimismo, se construyeron diversos modelos sectoriales o centrados (para cada uno de los sectores económicos considerados) y modelos globales o descentrados para un año y dos años antes de la entrada en quiebra. La metodología aplicada para la obtención de los modelos fue la construcción de modelos de regresión logística, y para la estimación de dichos modelos se emplearon 34 variables financieras, así como variables dummys representativas de los sectores de actividad bajo consideración. Con esta metodología se obtuvo un poder de clasificación que osciló entre un 69,6% (Sector Agricultura, dos años de la entrada en quiebra) y un 91,2% (Sector Hostelería, un año de la entrada en quiebra). Los resultados obtenidos permitieron verificar total o parcialmente las tres hipótesis planteadas: En primer lugar, que los modelos globales o descentrados y los centrados o sectoriales eran modelos distintos. En segundo lugar, que la inclusión de variables cualitativas sectoriales mejoraba los modelos globales estimados. Y, en tercer lugar, se verificó, si bien parcialmente, que los modelos globales o descentrados eran superiores a los centrados o sectoriales a la hora de predecir la insolvencia, con la única excepción del modelo del sector industrial dos años antes de la quiebra. Para el resto de modelos, los modelos globales estimados, uno y dos años antes de la quiebra, fueron capaces de obtener mejores resultados de predicción en las muestras sectoriales que los propios modelos centrados.
Resumo:
En esta tesis se va a describir y aplicar de forma novedosa la técnica del alisado exponencial multivariante a la predicción a corto plazo, a un día vista, de los precios horarios de la electricidad, un problema que se está estudiando intensivamente en la literatura estadística y económica reciente. Se van a demostrar ciertas propiedades interesantes del alisado exponencial multivariante que permiten reducir el número de parámetros para caracterizar la serie temporal y que al mismo tiempo permiten realizar un análisis dinámico factorial de la serie de precios horarios de la electricidad. En particular, este proceso multivariante de elevada dimensión se estimará descomponiéndolo en un número reducido de procesos univariantes independientes de alisado exponencial caracterizado cada uno por un solo parámetro de suavizado que variará entre cero (proceso de ruido blanco) y uno (paseo aleatorio). Para ello, se utilizará la formulación en el espacio de los estados para la estimación del modelo, ya que ello permite conectar esa secuencia de modelos univariantes más eficientes con el modelo multivariante. De manera novedosa, las relaciones entre los dos modelos se obtienen a partir de un simple tratamiento algebraico sin requerir la aplicación del filtro de Kalman. De este modo, se podrán analizar y poner al descubierto las razones últimas de la dinámica de precios de la electricidad. Por otra parte, la vertiente práctica de esta metodología se pondrá de manifiesto con su aplicación práctica a ciertos mercados eléctricos spot, tales como Omel, Powernext y Nord Pool. En los citados mercados se caracterizará la evolución de los precios horarios y se establecerán sus predicciones comparándolas con las de otras técnicas de predicción. ABSTRACT This thesis describes and applies the multivariate exponential smoothing technique to the day-ahead forecast of the hourly prices of electricity in a whole new way. This problem is being studied intensively in recent statistics and economics literature. It will start by demonstrating some interesting properties of the multivariate exponential smoothing that reduce drastically the number of parameters to characterize the time series and that at the same time allow a dynamic factor analysis of the hourly prices of electricity series. In particular this very complex multivariate process of dimension 24 will be estimated by decomposing a very reduced number of univariate independent of exponentially smoothing processes each characterized by a single smoothing parameter that varies between zero (white noise process) and one (random walk). To this end, the formulation is used in the state space model for the estimation, since this connects the sequence of efficient univariate models to the multivariate model. Through a novel way, relations between the two models are obtained from a simple algebraic treatment without applying the Kalman filter. Thus, we will analyze and expose the ultimate reasons for the dynamics of the electricity price. Moreover, the practical aspect of this methodology will be shown by applying this new technique to certain electricity spot markets such as Omel, Powernext and Nord Pool. In those markets the behavior of prices will be characterized, their predictions will be formulated and the results will be compared with those of other forecasting techniques.
Resumo:
Conocer cómo los factores sexo, edad, lengua y sector socioeconómico correlacionan e influyen sobre los componentes lingüísticos de los escolares del ciclo superior de EGB. Muestra representativa de la población de estudiantes de Inglés del ciclo superior de la EGB de los centros públicos de la provincia de Tarragona. Variables independientes: sexo, edad, lengua y sector socioeconómico. Variables dependientes, componentes lingüísticos de los escolares del ciclo superior de EGB divididos en: tópicos, morfología y estructuras. Construye un cuestionario de recogida de datos para cada contexto analizado: colegial, amigos, familia y TV. Realiza una prueba piloto y aplica los cuestionarios definitivos a la muestra escogida a través de un muestreo no aleatorio. Vacía los cuestionarios y categoriza los datos brutos. Analiza descriptiva e inferencialmente los tópicos según los 11 valores de las variables independientes en los cuatro contextos posibles e interpreta los resultdos a través de un análisis intra y entre. 4 cuestionarios ad hoc. Para el análisis descriptivo de los datos realiza mediciones nominales y ordinales, calcula frecuencias y porcentajes, confecciona cuadros y tablas de datos categorizados, así como gráficas. Para el análisis inferencial utiliza principalmente técnicas de significación estadística. Para optimizar el proceso lingüístico de enseñanza-aprendizaje de una segunda o tercera lengua en el ciclo superior de la EGB, destaca la necesidad de capacitar al alumno para trasladar al nuevo código lingüístico todo lo que es capaz de expresar en su lengua materna. Para conseguir ésto hay que identificar habla y personalidad: tomar como base comunicativa tópicos relacionados con su experiencia vivencial, el entorno familiar y las actividades cotidianas, que favorecen el desarrollo de sus personales hábitos de expresión y ayudan a la aceptación y uso de la nueva lengua.
Resumo:
El proyecto se realiza en la Facultad de Ciencias Económicas y Empresariales de la Universidad de Valladolid para la licenciatura de segundo ciclo Investigación y Técnicas de Mercado. Los cuatro miembros del equipo son profesores del Departamento de Economía Aplicada (Estadística y Econometría) de la Universidad de Valladolid. El objetivo del proyecto ha sido elaborar material docente para las asignaturas del primer curso de la licenciatura en Investigación y Técnicas de Mercado, Estadística Aplicada (6 créditos, troncal, cuatrimestral) y Métodos Cuantitativos para la Investigación de Mercados (9 créditos, obligatoria, anual). El sistema de trabajo llevado a cabo ha consistido en elaborar unidades docentes para cada uno de los temas, en los que se ha incluido: el desarrollo intuitivo de la técnica, los pasos a seguir para realizar el análisis en el programa estadístico SPSS, un caso práctico con datos reales resuelto en SPSS y una propuesta de ejercicios y casos prácticos a resolver por el alumno. Resultados: Parte del material elaborado se ha utilizado en el último trimestre del curso académico 2000-2001 contribuyendo a favorecer el aprendizaje de los alumnos, a disminuir el fracaso escolar, a potenciar la eficacia de las prácticas y de las tutorías así como a adquirir las competencias de la titulación. El material elaborado se distribuye en 15 unidades docentes: El programa estadístico SPSS para windows, Estadística descriptiva, Distribuciones de probabilidad, Introducción a la inferencia estadística, Procedimientos inferenciales univariantes, Procedimientos diferenciales bivariantes, Investigación mediante encuesta, Análisis de varianza, Modelos de regresión lineal, Modelos de regresión lineal con variable dependiente cualitativa (Modelos de elección discreta), Análisis discriminante, Análisis de conglomerados, Análisis factorial de correspondencias y Escalamiento multidimensional. Los materiales utilizados han sido numerosa bibliografía en Investigación de Mercados y en métodos cuantitativos, además de algunas bases de datos de uso público. Por supuesto se ha trabajado con el programa estadístico SPSS y ordenadores. Los materiales elaborados no están publicados.
Resumo:
Se presenta una experiencia llevada a cabo por alumnos de FP, con el fin de estudiar conceptos sociológicos a través de estudios de campo por medio de encuestas en la misma clase y con la colaboración de los propios alumnos. Otro de los objetivos es la utilización de técnicas como la estadística, con el consiguiente beneficio interdisciplinar.
Resumo:
En los últimos años la cultura del respeto a los derechos del consumidor salvadoreño ha sido promovida desde instituciones gubernamentales y no gubernamentales. El objetivo del estudio fue indagar las experiencias, inquietudes y expectativas de consumidores del departamento de San Miguel, en relación a su percepción sobre el cumplimiento o no de sus derechos, vinculados a la calidad, inocuidad y seguridad de productos alimenticios. Contrastando ésta opinión con la emitida por los empresarios a fin de establecer similitudes y diferencias respecto al tema. El tipo de estudio fue descriptivo y explicativo, se describieron y analizaron causas y efectos de la relación entre variables como cumplimiento de requisitos: calidad, inocuidad y seguridad de productos alimenticios con cumplimiento de leyes. Para el análisis de los datos se utilizaron las técnicas de la estadística básica: Tablas de frecuencias y gráficos. Se encontró que los consumidores son sensibles a los altos precios de la canasta básica alimenticia influyendo en sus decisiones de compra; que reciben productos alimenticios de mediana calidad y que estos productos no siempre son accesibles a sus presupuestos; asimismo, existe un alto porcentaje de consumidores que desconocen sus derechos y deberes otorgados por la Ley de Protección al Consumidor.
Resumo:
La estadística aplicada a la geografía ha experimentado un avance espectacular en las últimas dos décadas introduciéndose el espacio como eje fundamental del análisis. Este avance se ha visto acompañado por un rápido desarrollo de aplicaciones estadísticas integradas en los sistemas de información geográfica, constituyéndose de esta forma en un conjunto de herramientas imprescindibles en la planificación territorial. Por otro lado, en España, el incremento de población inmigrada en un corto intervalo de tiempo ha hecho necesario analizar su distribución espacial en las áreas urbanas. Los índices de autocorrelación espacial, tanto global como local, y su representación cartográfica constituyen una técnica adecuada para la detección de clusters y patrones espaciales y abre la posibilidad de plantear diferentes modelos econométricos. A partir del caso de la ciudad de Barcelona se aplican las técnicas descritas y se observan los diferentes comportamientos según el grupo de población estudiado.
Resumo:
Cerca del 10% de las parejas tiene problemas para concebir. Las técnicas de reproducción asistida (TRA) son una alternativa de tratamiento cuando otros manejos han fallado. Las TRA son todos los tratamientos o procedimientos que incluyen manejo in vitro de los ovocitos humanos, espermatozoides y embriones con el objetivo de obtener un embarazo. Durante el tratamiento de infertilidad es importante conocer la probabilidad de embarazo que tiene una paciente sometida a TRA teniendo en cuenta que los factores influyentes en dicho desenlace (embarazo) difieren en cada paciente. Los modelos de predicción en medicina tienen como objetivo principal encontrar el grupo de factores de riesgo que tengan la mejor capacidad predictiva de un resultado especifico. Los modelos de predicción publicados actualmente no son aplicables a pacientes sometidas a TRA en general, y además las pacientes que fueron estudiadas por estos grupos de investigación tienen características poblacionales diferentes a las nuestras.14,17,18,20. Se desarrollo un modelo de predicción de embarazo en pacientes sometidas a TRA en la Unidad de Fertilidad del Country de Bogota. La recolección de los datos se realizó en forma retrospectiva, sin intervención. Las variables independientes que en el análisis multivariado se encontraron con mayor capacidad predictiva fueron: la edad real, las unidades de gonadotropinas administradas en la inducción de la ovulación, el número de embriones transferidos y el tipo de catéter que se utilizó en la transferencia. La capacidad predictiva del modelo final se evaluó por medio del área bajo la curva ROC la cual fue de 0.6950. La sensibilidad del modelo es 36.7%, con una especificidad del 83.3%. Conclusiones: el desarrollo de un modelo de predicción para embarazo en pacientes sometidas a TRA provee una estrategia de medicina basada en evidencia para guiar a las parejas en sus probabilidades de éxito reales. Una vez corregidos el sobre ajuste overfitting, y validado el modelo, puede ser utilizado en las clínicas de fertilidad como herramienta valiosa de consejería.
Resumo:
Resumen tomado de la publicación
Resumo:
Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.
Resumo:
La predicción del valor de las acciones en la bolsa de valores ha sido un tema importante en el campo de inversiones, que por varios años ha atraído tanto a académicos como a inversionistas. Esto supone que la información disponible en el pasado de la compañía que cotiza en bolsa tiene alguna implicación en el futuro del valor de la misma. Este trabajo está enfocado en ayudar a un persona u organismo que decida invertir en la bolsa de valores a través de gestión de compra o venta de acciones de una compañía a tomar decisiones respecto al tiempo de comprar o vender basado en el conocimiento obtenido de los valores históricos de las acciones de una compañía en la bolsa de valores. Esta decisión será inferida a partir de un modelo de regresión múltiple que es una de las técnicas de datamining. Para llevar conseguir esto se emplea una metodología conocida como CRISP-DM aplicada a los datos históricos de la compañía con mayor valor actual del NASDAQ.---ABSTRACT---The prediction of the value of shares in the stock market has been a major issue in the field of investments, which for several years has attracted both academics and investors. This means that the information available in the company last traded have any involvement in the future of the value of it. This work is focused on helping an investor decides to invest in the stock market through management buy or sell shares of a company to make decisions with respect to time to buy or sell based on the knowledge gained from the historic values of the shares of a company in the stock market. This decision will be inferred from a multiple regression model which is one of the techniques of data mining. To get this out a methodology known as CRISP-DM applied to historical data of the company with the highest current value of NASDAQ is used.