1000 resultados para Técnicas de predicción estadística


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el marco de implantación de los nuevos grados en la Universidad de Alicante, se ha potenciado la reestructuración y actualización de las metodologías docentes y de evaluación. La Estadística es un área de gran importancia en el estudio de las Ciencias Sociales y Jurídicas y en ocasiones presenta grandes dificultades de aprendizaje por parte de los estudiantes de titulaciones no técnicas. Con el fin de presentar al alumno un método nuevo en la adquisición y refuerzo del conocimiento estadístico, el Departamento de Estadística e Investigación Operativa de la Universidad de Alicante, que imparte docencia en los nuevos grados de Criminología, de Relaciones Laborales y Recursos Humanos y de Gestión y Administración Pública, todos ellos adscritos a la Facultad de Derecho, se ha esforzado en la renovación de temario, materiales y procedimientos de evaluación. En este trabajo exponemos nuestra primera experiencia acerca de la docencia de esta asignatura en los nuevos grados, así como una primera valoración de los resultados obtenidos, mostrando un análisis exhaustivo de dichos resultados, comparándolos con los obtenidos en los últimos cursos de los antiguos planes y proponiendo mejoras en los puntos débiles encontrados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Análisis multivariante con técnicas de Permutaciones y MANOVA (Permanova)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los problemas con los que se enfrentan los alumnos a la hora de estudiar las geociencias es la falta de imágenes de alta calidad, especialmente en muestras microscópicas. En este trabajo se examinan distintas técnicas de microscopía óptica para la obtención de fotografías digitales de alta resolución. Las técnicas se han aplicado y desarrollado en el marco de las geociencias, en particular en ámbito de la sedimentología y micropaleontología siendo los objetos geológicos fotografiados fundamentalmente arenas y microfósiles. Las técnicas abarcan las distintas opciones de microscopia óptica (utilización de microscopía simple y compuesta) que incluyen básicamente distintos tipos de luz reflejada, utilización de diferentes tipos de cámara fotográfica, elección de los aumentos y de los grados de luminosidad óptimos para cada tipo muestra. Los resultados obtenidos han permitido establecer las mejores condiciones e instrumental para la implementación de esta técnica como recurso de investigación aplicado a la didáctica de las geociencias marinas, en particular en las asignaturas de “planctología aplicada y micropaleontología marina” y “sedimentología” del grado de ciencias del mar de la universidad de Alicante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Inspirados por las estrategias de detección precoz aplicadas en medicina, proponemos el diseño y construcción de un sistema de predicción que permita detectar los problemas de aprendizaje de los estudiantes de forma temprana. Partimos de un sistema gamificado para el aprendizaje de Lógica Computacional, del que se recolectan masivamente datos de uso y, sobre todo, resultados de aprendizaje de los estudiantes en la resolución de problemas. Todos estos datos se analizan utilizando técnicas de Machine Learning que ofrecen, como resultado, una predicción del rendimiento de cada alumno. La información se presenta semanalmente en forma de un gráfico de progresión, de fácil interpretación pero con información muy valiosa. El sistema resultante tiene un alto grado de automatización, es progresivo, ofrece resultados desde el principio del curso con predicciones cada vez más precisas, utiliza resultados de aprendizaje y no solo datos de uso, permite evaluar y hacer predicciones sobre las competencias y habilidades adquiridas y contribuye a una evaluación realmente formativa. En definitiva, permite a los profesores guiar a los estudiantes en una mejora de su rendimiento desde etapas muy tempranas, pudiendo reconducir a tiempo los posibles fracasos y motivando a los estudiantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presentan los resultados más significativos del proyecto de innovación docente enmarcado dentro de las redes de innovación docente de la Universidad de Alicante. En este trabajo se han examinado una serie de técnicas para la adquisición de microfotografías de utilidad en Geociencias. En particular, los materiales estudiados incluyen microfósiles marinos (foraminíferos) y sedimentos arenosos. Las técnicas analizadas abarcan los siguientes dispositivos: a) microscopio electrónico de barrido; b) microscopio trilocular con iluminación led de luz fría – cámara réflex; y c) estereomicroscopio (lupa binocular) – cámara IDS. El análisis de las distintas fotografías obtenidas ha permitido establecer las mejores condiciones e instrumental para aplicar estas técnicas como recurso de investigación aplicado a la didáctica de las geociencias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años se han difundido, en la región productora de granos de la Provincia de Córdoba, la utilización de tecnologías de agricultura de precisión (monitores de rendimiento, GPS, sensores geofísicos) que permiten medir y en consecuencia, manejar diferenciadamente la variabilidad espacial intralote, tanto de los rendimientos como de propiedades del sitio (suelo, terreno, nutrientes). Los mapas de rendimiento y de suelo a escala de lote (intralote) proveen indicadores de riesgos asociados con la producción y constituyen herramientas claves para implementar el manejo sitio-específico en agricultura de precisión. Estos mapas deben ser realizados desde los datos que producen las nuevas maquinarias. La identificación de zonas homogéneas, surge como una necesidad para el manejo de la variabilidad espacial del rendimiento; éstas se interpretan como conjuntos de sitios con una misma combinación de factores limitantes de la producción y por tanto con una misma demanda para maximizar la producción. La delimitación de zonas homogéneas se realiza utilizando los datos georreferenciados de rendimiento y/o de sitio, pero el óptimo uso de la información espacial disponible, demanda nuevos desarrollos estadístico-computacionales. Las dependencias espaciales de los rendimientos y de las propiedades del sitio son actualmente abordadas con modelos geoestadísticos clásicos, con métodos multivariados y con modelos estadísticos contemporáneos como los modelos mixtos de covarianza espacial. Cuando los datos de suelo se obtienen por sitio en varios años, la zonificación podría depender también de la variabilidad temporal de las mediciones. La variabilidad temporal en las propiedades de sitio impacta en las zonificaciones y consecuentemente en las predicciones de rendimientos. Nuestro grupo de investigación en Estadística y Biometría de la Facultad de Ciencias Agropecuarias, Universidad Nacional de Córdoba, ha desarrollado algoritmos computacionales para el análisis de la variabilidad espacial de los rendimientos intralote, contemplando simultáneamente la correlación espacial y la variabilidad temporal. A través del software de desarrollo nacional InfoStat y su interfase con el software R, se han implementado diversas técnicas para el análisis exploratorio de datos georeferenciados y el análisis de la variabilidad espacial así como para la delimitación de zonas homogéneas y funciones para la predicción del rendimiento utilizando variables regionalizadas de sitio como predictoras. InfoStat es utilizado en ámbitos estatales y privados (INTA, Universidades, Semilleros y Empresas de gestión de la producción agrícola). Numerosos grupos de técnicos, docentes y/o investigadores demandan capacitación y asesoramiento en el uso de nuevas aplicaciones y análisis que se pueden realizar con este software. La posibilidad de publicar nueva documentación para apoyar el análisis estadístico de información proveniente de lotes en producción de cultivos de grano es importante para la región central y sur de la Provincia de Córdoba, donde están ya instaladas las capacidades para captura intensiva de datos desde nuevas maquinarias precisas. El objetivo de la presente propuesta es difundir, a través de la edición de un libro, con ejemplos ilustrativos del paso a paso del análisis estadístico para el estudio de variabilidad espacial del rendimiento intralote.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artículo describe los métodos, técnicas de enseñanza y recursos didácticos, utilizados por una muestra de docentes de I y II Ciclo de la Educación General Básica en la Dirección Regional Educativa de Heredia al enseñar Probabilidad y Estadística, que surge como resultado de una investigación realizada en el 2009, en Costa Rica. Para obtener los datos necesarios se aplicó un cuestionario auto-administrado a dicha muestra de docentes. En relación con los métodos, dentro de los hallazgos más importantes se encontró una preferencia de los educadores entrevistados, hacia estrategias pedagógicas tradicionales (usan con mayor frecuencia los métodos: deductivo, expositivo, estudio de textos, colectivo). En cuanto a técnicas de enseñanza, se señalaron con uso frecuente la lluvia de ideas, las actividades lúdicas y el trabajo en grupos, que si bien son buenas herramientas para propiciar un proceso de enseñanza y aprendizaje en donde el estudiante interactúe con situaciones problemáticas, también pueden emplearse en lecciones tradicionales. La técnica elaboración de proyectos resultó de uso poco frecuente. Además, dentro los principales recursos didácticos elegidos por los docentes, para enseñar Probabilidad y Estadística, se destacan la pizarra y el material fotocopiado; aunque también se mencionaron las actividades lúdicas y el material concreto. Este artículo corresponde a parte de la investigación realizada en el proyecto Didáctica de la Probabilidad y la Estadística en primaria, adscrito y financiado por la Escuela de Matemática de la Universidad Nacional, bajo el código NCAG07.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad caminar hacia el residuo cero es la máxima de toda política medioambiental. Cada año se producen millones de toneladas de residuos solamente en la Unión Europea, entre los que se encuentran los residuos de vidrio y esta cifra no deja de aumentar. El almacenamiento de estos residuos no es una solución sostenible y su destrucción no resulta satisfactoria debido a que los desechos que se producen como derivados de dichos residuos son muy concentrados y contaminantes. La mejor solución sigue consistiendo en minimizar la producción de residuos y en reintroducirlos en el ciclo de producción mediante el reciclado de sus componentes cuando existan soluciones sostenibles desde los puntos de vista ecológico y económico. El objetivo de esta tesis doctoral es analizar la posibilidad de utilización de los desechos últimos de polvo de vidrio provenientes de la industria vidriera y cerámica, que se destinan a vertedero controlado, como conglomerante en el campo de la ingeniería civil. Se han realizado estudios físicos, mecánicos y químicos para la caracterización y sostenibilidad de hormigones desactivados cuyo conglomerante sea los residuos últimos de polvo de vidrio. Dichos estudios han permitido evidenciar los factores que influyen en la reactividad de estos materiales. Después de la molienda con diferentes granulometrías de los residuos de polvo de vidrio se ha estudiado su papel en el crecimiento de las resistencias mecánicas a largo plazo de los morteros y los hormigones, dando como resultado que dichas resistencias son mayores cuanto más finos son los polvos de vidrio utilizados. El fraguado que proporciona el vidrio se debe a la formación de geles tipo C-S-H, ricos en Si, Ca y Na (los 3 principales elementos constitutivos del vidrio). La disolución de estos elementos y sus asociaciones después de su precipitación es lo que provoca la aparición de estos geles. El cierre progresivo de la estructura de estos productos, que se traduce en una colmatación de los poros, nos permite explicar el crecimiento de las resistencias mecánicas. La utilización de estos productos de desecho del vidrio como conglomerante conlleva beneficios medioambientales, como son, la minimización de los residuos en vertedero y uso en morteros y hormigones no provocan un impacto perjudicial sobre la naturaleza, ya que solamente el Na es liberado en cantidad apreciable, lo que pone en evidencia su sostenibilidad medioambiental. Una vez caracterizados estos materiales se analizan sus distintas aplicaciones, sobre todo su uso como componente mayoritario de conglomerante (entre un 70 y un 80%) destinado a la fabricación de hormigones desactivados. Los áridos de estos hormigones se hacen visible de dos formas: la primera desactivando el fraguado superficial extendiendo un producto desactivante que después se elimina con un chorro de agua, la segunda mediante un barrido enérgico con una escoba de pelo duro. La utilización de estos desechos de vidrio abre, igualmente, perspectivas interesantes en el sector de los firmes de carreteras, de los morteros o del tratamiento de suelos finos que para concretar implicaría ensayos complementarios en cada uno de estos sectores que pueden ser objeto de la ejecución de otras tesis doctorales. Lo mismo que se abre el estudio sobre el origen de las propiedades conglomerantes del vidrio, de los escalones de concentración en Si y Na tras la disolución de los polvos de vidrio y de la desecación del interior de las probetas de morteros. Dentro de la tesis, se ha desarrollado un modelo matemático basados en A.C.(Autómatas Celulares) para la predicción del comportamiento mecánico a compresión de estos morteros fabricados con polvo de vidrio, donde, como ha quedado establecido, lo más importante en la formación de la microestructura del cemento es su proceso de hidratación, proceso mediante el cual, la pasta va tomando consistencia a medida que transcurre el tiempo y se van combinando las diferentes especies de reacción para formar una estructura que gana en complejidad y resistencia, estando en correlación los obtenidos en el modelo con los obtenidos en los trabajos de laboratorio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo es la construcción de un modelo para predecir la insolvencia de las empresas familiares. El hecho de centrarnos en esta tipología de empresas deriva de dos motivos esenciales: Primero, por la importante participación de la empresa familiar en el ámbito de la economía española, así como en la economía mundial (Allouche et al., 2008). España tiene en la actualidad 1,1 millones de empresas familiares, un 85% del total de empresas, las cuales generan siete millones de empleos directos, esto es, un 70% del empleo privado. Este hecho ha provocado que la investigación en el campo de la empresa familiar haya crecido significativamente durante las dos últimas décadas (Gómez-Mejia et al., 2011). Y segundo, porque pensamos que las diferencias y características propias de la empresa familiar deberían tomarse en consideración para la predicción de la insolvencia empresarial. Estas circunstancias han motivado el interés en analizar las causas que propician la insolvencia en las empresas familiares e intentar facilitar herramientas o estrategias a los gestores de las mismas, con vistas a evitarla y asegurar la viabilidad de sus empresas. Además, hasta la fecha no se ha estudiado la predicción de insolvencia en las empresas familiares, donde encontramos un gap que pretendemos cubrir con la presente investigación. En consecuencia, la inexistencia de trabajos empíricos con muestras específicas de empresas familiares, tanto españolas como internacionales, hace especialmente interesante que analicemos las causas que propician su posible insolvencia. Por ello, y con objeto de contar con un mayor margen para realizar estrategias que eviten la insolvencia de este tipo de empresas, pretendemos obtener modelos que tengan como objeto predecirla 1, 2 y 3 años antes de que ésta se produzca, comparándose las similitudes y diferencias de dichos modelos a medida que nos alejamos del momento de la insolvencia. Con objeto de resolver esta cuestión de investigación hemos dispuesto de seis muestras elaboradas a partir de una base de datos creada expresamente para el presente estudio, y que incluirá información económico-financiera de empresas familiares y no familiares, tanto solventes como insolventes. Estas muestras contienen un número suficiente de empresas para construir fiables modelos de predicción y conocer las variables predictivas propias de cada una de ellas. Así mismo, y con objeto de dotar de robustez a los modelos, se ha considerado un período total de análisis de ocho años, comprendidos entre el ejercicio 2005 y el 2012, periodo que abarcaría varios ciclos económicos y, en consecuencia, evita el riesgo de obtener modelos sólo válidos para épocas de crecimiento o, en su caso, de decrecimiento económico. En el análisis empírico desarrollado utilizaremos dos métodos diferentes para predecir la insolvencia: técnicas de regresión logística (LOGIT) y técnicas computacionales de redes neuronales (NN). Si bien los modelos LOGIT han tenido y siguen manteniendo una especial relevancia en los estudios realizados en esta materia en los últimos treinta y cinco años, los modelos NN se corresponden con metodologías más avanzadas, que han mostrado tener un importante potencial en el ámbito de la predicción. La principal ventaja de los modelos LOGIT reside, no sólo en la capacidad de predecir previamente si una empresa se espera resulte solvente e insolvente, sino en facilitar información respecto a cuáles son las variables que resultan significativamente explicativas de la insolvencia, y en consecuencia, permiten deducir estrategias adecuadas en la gestión de la empresa con objeto de asegurar la solvencia de la misma. Por su parte, los modelos NN presentan un gran potencial de clasificación, superando en la mayoría de los casos al LOGIT, si bien su utilidad explicativa está menos contrastada. Nuestro estudio contribuye a la literatura existente sobre predicción de insolvencia de varias formas. En primer lugar, construyendo modelos específicos para empresas familiares y no familiares, lo que puede mejorar la eficiencia en la predicción del fracaso empresarial y evitar el concurso de acreedores, así como las consecuencias negativas de la insolvencia empresarial para la economía en general, dada la importancia de la empresa familiar en el mundo. En segundo lugar, nuestras conclusiones sugieren que la relación entre la evolución de ciertas variables financieras y la insolvencia empresarial toma connotaciones específicas en el caso de las empresas familiares. Aunque los modelos de predicción de insolvencia confirman la importancia de algunas variables financieras comunes para ambos tipos de empresas (eficiencia y dimensión empresarial), también identifican factores específicos y únicos. Así, la rentabilidad es el factor diferenciador para las empresas familiares como lo es el apalancamiento para las empresas no familiares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hemos dedicado este texto al tratamiento descriptivo de los datos, esto es, al estudio de la primera rama de la estadística, la cual se conoce como estadística descriptiva. Se mostrara el tratamiento de variables tanto cualitativas como cuantitativas desde una perspectiva exploratoria para una y dos variables, y con el acompañamiento de la herramienta computacional R. El R es un software de distribución gratuita constituido por un conjunto de métodos estadísticos que están en continuo desarrollo. Contiene la mayoría de las técnicas estadísticas clásicas estándar así como las últimas metodologías en uso. El desarrollo del texto se presenta de la siguiente manera: el primer capítulo estará dedicado a los conceptos básicos, el capítulo dos estudiará el análisis de datos cualitativos, el tres realizará un estudio de los datos cuantitativos tanto para datos agrupados como sin agrupar, y finalmente el último capítulo hará una revisión bivariada de datos tanto cualitativos como cuantitativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este documento presenta la estimación de la demanda trimestral por emisión monetaria mediante tres técnicas estadísticas, a saber: mínimos cuadrados ordinarios, corrección de errores y vectores autorregresivos. La estimación de la demanda se realizó para el periodo 1987–1997. En general las ecuaciones estimadas presentaron resultados satisfactorios en términos económicos y estadísticos. La capacidad de predicción se verificó con los bajos errores de pronóstico, inferiores al 3% para 1997. Se comprobó la estabilidad de la demanda de corto y largo plazo mediante los estadísticos Cusum y Cusum-Cuadrado, así como con la prueba de cointegración de Johansen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pesar de la existencia de una multitud de investigaciones sobre el análisis de sentimiento, existen pocos trabajos que traten el tema de su implantación práctica y real y su integración con la inteligencia de negocio y big data de tal forma que dichos análisis de sentimiento estén incorporados en una arquitectura (que soporte todo el proceso desde la obtención de datos hasta su explotación con las herramientas de BI) aplicada a la gestión de la crisis. Se busca, por medio de este trabajo, investigar cómo se pueden unir los mundos de análisis (de sentimiento y crisis) y de la tecnología (todo lo relacionado con la inteligencia de negocios, minería de datos y Big Data), y crear una solución de Inteligencia de Negocios que comprenda la minería de datos y el análisis de sentimiento (basados en grandes volúmenes de datos), y que ayude a empresas y/o gobiernos con la gestión de crisis. El autor se ha puesto a estudiar formas de trabajar con grandes volúmenes de datos, lo que se conoce actualmente como Big Data Science, o la ciencia de los datos aplicada a grandes volúmenes de datos (Big Data), y unir esta tecnología con el análisis de sentimiento relacionado a una situación real (en este trabajo la situación elegida fue la del proceso de impechment de la presidenta de Brasil, Dilma Rousseff). En esta unión se han utilizado técnicas de inteligencia de negocios para la creación de cuadros de mandos, rutinas de ETC (Extracción, Transformación y Carga) de los datos así como también técnicas de minería de textos y análisis de sentimiento. El trabajo ha sido desarrollado en distintas partes y con distintas fuentes de datos (datasets) debido a las distintas pruebas de tecnología a lo largo del proyecto. Uno de los datasets más importantes del proyecto son los tweets recogidos entre los meses de diciembre de 2015 y enero de 2016. Los mensajes recogidos contenían la palabra "Dilma" en el mensaje. Todos los twittees fueron recogidos con la API de Streaming del Twitter. Es muy importante entender que lo que se publica en la red social Twitter no se puede manipular y representa la opinión de la persona o entidad que publica el mensaje. Por esto se puede decir que hacer el proceso de minería de datos con los datos del Twitter puede ser muy eficiente y verídico. En 3 de diciembre de 2015 se aceptó la petición de apertura del proceso del impechment del presidente de Brasil, Dilma Rousseff. La petición fue aceptada por el presidente de la Cámara de los Diputados, el diputado Sr. Eduardo Cunha (PMDBRJ), y de este modo se creó una expectativa sobre el sentimiento de la población y el futuro de Brasil. También se ha recogido datos de las búsquedas en Google referentes a la palabra Dilma; basado en estos datos, el objetivo es llegar a un análisis global de sentimiento (no solo basado en los twittees recogidos). Utilizando apenas dos fuentes (Twitter y búsquedas de Google) han sido extraídos muchísimos datos, pero hay muchas otras fuentes donde es posible obtener informaciones con respecto de las opiniones de las personas acerca de un tema en particular. Así, una herramienta que pueda recoger, extraer y almacenar tantos datos e ilustrar las informaciones de una manera eficaz que ayude y soporte una toma de decisión, contribuye para la gestión de crisis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente estudio comprende una síntesis general de los conocimientos adquiridos en el desarrollo del Máster en Minería de Datos e Inteligencia de Negocios. Se ha intentado pasar por la mayoría de las áreas que en el mismo se tratan, prestando especial atención a la parte de análisis de datos propiamente dicha. La temática se ha centrado en el sector hotelero de la ciudad de Madrid. Se pretende hacer un ejercicio en profundidad de análisis de datos, seguido de un análisis de predicción del precio de los hoteles situados en esta ciudad, tomando como referencias distintas características de estos establecimientos, además de momentos temporales y otros matices. Otro punto a tratar en este estudio está basado en un análisis de la competencia hotelera, que tomará como base los resultados obtenidos en los primeros pasos de este proyecto. Así, se llega a la selección de un modelo óptimo de predicción, obtenido tras un proceso de ensayo-error de distintas técnicas predictivas, seguido de un proceso de elección. Así mismo, se consigue entender cómo se agrupan los distintos hoteles y cómo se sitúan en su mercado, atendiendo al comportamiento de los centros que forman su competencia.