7 resultados para base de datos, oracle, modelo relacional, Diseño e implementación bd
em Repositorio Institucional de la Universidad de Málaga
Resumo:
Las transformaciones tecnológicas y de información que está experimentando la sociedad, especialmente en la última década, está produciendo un crecimiento exponencial de los datos en todos los ámbitos de la sociedad. Los datos que se generan en los diferentes ámbitos se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a las tomas de decisiones. Para que estos datos puedan ser de utilidad en cualquier proceso de decisión, es preciso que se conviertan en información, es decir, en un conjunto de datos procesados con un significado, para ayudar a crear conocimiento. Estos procesos de transformación de datos en información se componen de diferentes fases como la localización de las fuentes de información, captura, análisis y medición.Este cambio tecnológico y a su vez de la sociedad ha provocado un aumento de las fuentes de información, de manera que cualquier persona, empresas u organización, puede generar información que puede ser relevante para el negocio de las empresas o gobiernos. Localizar estas fuentes, identificar información relevante en la fuente y almacenar la información que generan, la cual puede tener diferentes formatos, es el primer paso de todo el proceso anteriormente descrito, el cual tiene que ser ejecutado de manera correcta ya que el resto de fases dependen de las fuentes y datos recolectados. Para la identificación de información relevante en las fuentes se han creado lo que se denomina, robot de búsqueda, los cuales examinan de manera automática una fuente de información, localizando y recolectando datos que puedan ser de interés.En este trabajo se diseña e implementa un robot de conocimiento junto con los sistemas de captura de información online para fuentes hipertextuales y redes sociales.
Resumo:
Existen múltiples aplicaciones informáticas (Perea, 2008) para registrar conductas perceptibles que el desarrollo tecnológico actual ha posibilitado, pero la gran mayoría de los programas informáticos tienen problemas en facilitar la: observación, codificación, registro y análisis en contextos naturales; esto hace que dificulten la labor de los investigadores (Hernández-Mendo, Castellano, Camerino, Jonsson, Blanco-Villaseñor, Lopes, y Anguera, 2014). Este trabajo se inscribe en el marco de las investigaciones sobre software relacionados con la Metodología Observacional (Anguera y Hernández-Mendo, 2013, 2014, 2015). El objetivo general es el diseño e implementación de una herramienta que facilite la observación, codificación, registro y análisis de contextos naturales. Desarrollo Teórico HOISAN (Herramienta de observación de las interacciones en ambientes naturales) es una herramienta implementada haciendo uso de la plataforma .NET y del lenguaje C#, que nos ayuda en la tarea de observación, codificación, registro, descripción, manipulación y visionado de las conductas en el marco de la Metodología Observacional. Permite al usuario trabajar con varios tipos de datos (Bakeman y Quera, 1996). Por lo que respecta a la métrica del registro observacional se han calculado parámetros primarios y secundarios. El programa admite el intercambio de datos con programas específicos de uso en Metodología Observacional (SDIS-GSEQ, SAGT y THEME). Este programa satisface la vertiente más profesional al tiempo que la investigadora en su implementación. Hoisan permite un acercamiento a la Metodología Cualitativa con un carácter cuantitativo y mediante el análisis de los registros con producción verbal. Permite la estimación de la calidad del dato y realiza análisis secuencial de retardos y a partir de éste calcula los valores Z para un posterior análisis de coordenadas polares. Conclusiones El programa diseñado permite la realización de distintos cálculos de uso común en Metodología Observacional (MO) (Anguera y Hernández-Mendo, 2013, 2014, 2015). Esta característica hace al software Hoisan (Hernández-Mendo, López-López, Castellano, Morales-Sánchez y Pastrana, 2012) convertirse en una de las herramientas más completas para trabajar con MO en investigaciones de distintos ámbitos. Bibliografía Anguera, M.T. y Hernández-Mendo, A. (2013). La metodología observacional en el ámbito del deporte. E-balonmano.com: Revista de Ciencias del Deporte 9(3), 135-160. http://www.e-balonmano.com/ojs/index.php/revista/article/view/139. Anguera, M.T. y Hernández-Mendo, A. (2014). Metodología observacional y psicología del deporte: Estado de la cuestión. Revista de Psicología del Deporte, 23(1), 103-109. Anguera, M.T. y Hernández-Mendo, A. (2015). Técnicas de análisis en estudios observacionales en ciencias del deporte. Cuadernos de Psicología del Deporte, 15(1), 13-30. Bakeman, R. y Quera, V. (1996). Análisis de la interacción. Análisis secuencial con SDIS y GSEQ. Madrid: RA-MA. Hernández-Mendo, A., Castellano, J., Camerino, O., Jonsson, G., Blanco-Villaseñor, A., Lopes, A. y Anguera, M.T. (2014). Programas informáticos de registro, control de calidad del dato, y análisis de datos. Revista de Psicología del Deporte, 23(1), 111-121. Hernández-Mendo, A., López-López, J.A., Castellano, J., Morales-Sánchez, V. y Pastrana, J.L. (2012). HOISAN 1.2: Programa informático para uso en Metodología Observacional. Cuadernos de Psicología del Deporte, 12(1), 55- 78. Perea, A. (2008). Análisis de las acciones colectivas en el futbol de rendimiento. Tesis doctoral no publicada. San Sebastián: Universidad del País Vasco.
Resumo:
La intención del proyecto es mostrar las diferentes características que ofrece Oracle en el campo de la minería de datos, con la finalidad de saber si puede ser una plataforma apta para la investigación y la educación en la universidad. En la primera parte del proyecto se estudia la aplicación “Oracle Data Miner” y como, mediante un flujo de trabajo visual e intuitivo, pueden aplicarse las distintas técnicas de minería (clasificación, regresión, clustering y asociación). Para mostrar la ejecución de estas técnicas se han usado dataset procedentes de la universidad de Irvine. Con ello se ha conseguido observar el comportamiento de los distintos algoritmos en situaciones reales. Para cada técnica se expone como evaluar su fiabilidad y como interpretar los resultados que se obtienen a partir de su aplicación. También se muestra la aplicación de las técnicas mediante el uso del lenguaje PL/SQL. Gracias a ello podemos integrar la minería de datos en nuestras aplicaciones de manera sencilla. En la segunda parte del proyecto, se ha elaborado un prototipo de una aplicación que utiliza la minería de datos, en concreto la clasificación para obtener el diagnóstico y la probabilidad de que un tumor de mama sea maligno o benigno, a partir de los resultados de una citología.
Resumo:
El objetivo de este trabajo es la construcción de un modelo para predecir la insolvencia de las empresas familiares. El hecho de centrarnos en esta tipología de empresas deriva de dos motivos esenciales: Primero, por la importante participación de la empresa familiar en el ámbito de la economía española, así como en la economía mundial (Allouche et al., 2008). España tiene en la actualidad 1,1 millones de empresas familiares, un 85% del total de empresas, las cuales generan siete millones de empleos directos, esto es, un 70% del empleo privado. Este hecho ha provocado que la investigación en el campo de la empresa familiar haya crecido significativamente durante las dos últimas décadas (Gómez-Mejia et al., 2011). Y segundo, porque pensamos que las diferencias y características propias de la empresa familiar deberían tomarse en consideración para la predicción de la insolvencia empresarial. Estas circunstancias han motivado el interés en analizar las causas que propician la insolvencia en las empresas familiares e intentar facilitar herramientas o estrategias a los gestores de las mismas, con vistas a evitarla y asegurar la viabilidad de sus empresas. Además, hasta la fecha no se ha estudiado la predicción de insolvencia en las empresas familiares, donde encontramos un gap que pretendemos cubrir con la presente investigación. En consecuencia, la inexistencia de trabajos empíricos con muestras específicas de empresas familiares, tanto españolas como internacionales, hace especialmente interesante que analicemos las causas que propician su posible insolvencia. Por ello, y con objeto de contar con un mayor margen para realizar estrategias que eviten la insolvencia de este tipo de empresas, pretendemos obtener modelos que tengan como objeto predecirla 1, 2 y 3 años antes de que ésta se produzca, comparándose las similitudes y diferencias de dichos modelos a medida que nos alejamos del momento de la insolvencia. Con objeto de resolver esta cuestión de investigación hemos dispuesto de seis muestras elaboradas a partir de una base de datos creada expresamente para el presente estudio, y que incluirá información económico-financiera de empresas familiares y no familiares, tanto solventes como insolventes. Estas muestras contienen un número suficiente de empresas para construir fiables modelos de predicción y conocer las variables predictivas propias de cada una de ellas. Así mismo, y con objeto de dotar de robustez a los modelos, se ha considerado un período total de análisis de ocho años, comprendidos entre el ejercicio 2005 y el 2012, periodo que abarcaría varios ciclos económicos y, en consecuencia, evita el riesgo de obtener modelos sólo válidos para épocas de crecimiento o, en su caso, de decrecimiento económico. En el análisis empírico desarrollado utilizaremos dos métodos diferentes para predecir la insolvencia: técnicas de regresión logística (LOGIT) y técnicas computacionales de redes neuronales (NN). Si bien los modelos LOGIT han tenido y siguen manteniendo una especial relevancia en los estudios realizados en esta materia en los últimos treinta y cinco años, los modelos NN se corresponden con metodologías más avanzadas, que han mostrado tener un importante potencial en el ámbito de la predicción. La principal ventaja de los modelos LOGIT reside, no sólo en la capacidad de predecir previamente si una empresa se espera resulte solvente e insolvente, sino en facilitar información respecto a cuáles son las variables que resultan significativamente explicativas de la insolvencia, y en consecuencia, permiten deducir estrategias adecuadas en la gestión de la empresa con objeto de asegurar la solvencia de la misma. Por su parte, los modelos NN presentan un gran potencial de clasificación, superando en la mayoría de los casos al LOGIT, si bien su utilidad explicativa está menos contrastada. Nuestro estudio contribuye a la literatura existente sobre predicción de insolvencia de varias formas. En primer lugar, construyendo modelos específicos para empresas familiares y no familiares, lo que puede mejorar la eficiencia en la predicción del fracaso empresarial y evitar el concurso de acreedores, así como las consecuencias negativas de la insolvencia empresarial para la economía en general, dada la importancia de la empresa familiar en el mundo. En segundo lugar, nuestras conclusiones sugieren que la relación entre la evolución de ciertas variables financieras y la insolvencia empresarial toma connotaciones específicas en el caso de las empresas familiares. Aunque los modelos de predicción de insolvencia confirman la importancia de algunas variables financieras comunes para ambos tipos de empresas (eficiencia y dimensión empresarial), también identifican factores específicos y únicos. Así, la rentabilidad es el factor diferenciador para las empresas familiares como lo es el apalancamiento para las empresas no familiares.
Resumo:
En esta memoria se describe el diseño y las pautas seguidas para la construcción de una aplicación móvil que permite la creación de grupos de personas para la gestión de los gastos, facturas y deudas comunitarias. Con un soporte Front-End en Android, un Back-End desarrollado en PHP y un almacenamiento de la información en una base de datos NoSQL, concretamente en MongoDB. El proyecto se ha realizado en grupo, separando los módulos Front-End y Back-End en dos proyectos distintos. En este proyecto desarrollamos el módulo Back-End. En él encontraremos el diseño para la construcción de la arquitectura REST y dar solución a la comunicación cliente y servidor de la aplicación. Además se ha añadido la componente PaaS (Platform as a Service) para acercar el desarrollo de este proyecto a un entorno de producción más real, afrontando así problemas reales. Al tratarse de un proyecto en equipo, el uso de metodologías ágiles cobra más importancia, por ello en este proyecto se ha hecho uso de la metodología Scrum.
Resumo:
Este Trabajo de Fin de Grado va enfocado al desarrollo de un sistema eficaz para gestionar los recursos que componen una Unidad de Rescate en Montaña (URM). Estos recursos son tanto los medios humanos como los materiales, los primeros son los rescatadores, los segundos el material especializado que se emplea en las maniobras de rescate. Mantener información actualizada del estado del material es básico para garantizar la seguridad de las intervenciones de este tipo de unidad. Además saber qué cantidad, tipo y ubicación de dicho material, es básico documentar el empleo de este facilita la trazabilidad de su uso cumpliendo la normativa vigente que regula el trabajo en altura. Como modelo de forma de trabajo de una URM se tomará la perteneciente al Consorcio Provincial de Bomberos de Málaga (CPB Málaga). El sistema desarrollado es una aplicación web que bajo entorno Java Enterprise Edition (Java 2EE) que se ejecutará en un servidor Apache Tomcat y empleará una base de datos en MySql para almacenar la información, de esta forma se facilita el acceso distribuido de la gestión a los diferentes usuarios y el mantenimiento del sistema al estar todo centralizado, además de las ventajas que da un sistema desarrollado en Java que puede ser desplegado con independencia del sistema operativo empleado.
Resumo:
El objetivo de esta tesis ha sido cubrir el hueco existente en la literatura en relación con la cuestión de la supuesta superioridad de los modelos de predicción de insolvencia empresarial "descentrados" (construidos sobre la base de una muestra de empresas pertenecientes a diversos sectores económicos) frente a los modelos de predicción de la insolvencia "centrados" (construidos con una muestra de empresas pertenecientes a un solo sector de actividad). Un análisis de la literatura previa sobre predicción de insolvencia empresarial permitió constatar la existencia de un patrón definido por lo que se refería a la construcción de modelos descentrados frente a modelos centrados, siendo los primeros mucho más numerosos que los segundos. Sin embargo, no fue posible identificar ninguna tendencia, ni a favor ni en contra, en el uso de un tipo de modelo u otro, por lo que no resultó posible inducir una conclusión definitiva sobre la superioridad de un tipo de modelo frente a otro a la hora de pronosticar la insolvencia empresarial. Para resolver esta cuestión, se tomó una base de datos formada por empresas, tanto solventes como insolventes, pertenecientes a cinco sectores de actividad diferenciados: agricultura, industria, construcción, comercio y servicios, y sector de hostelería, a partir de los datos proporcionados por SABI (Sistema de Análisis de Balances Ibéricos). Los datos utilizados para este estudio se correspondieron al periodo comprendido entre el año 2010 y el año 2012. Asimismo, se construyeron diversos modelos sectoriales o centrados (para cada uno de los sectores económicos considerados) y modelos globales o descentrados para un año y dos años antes de la entrada en quiebra. La metodología aplicada para la obtención de los modelos fue la construcción de modelos de regresión logística, y para la estimación de dichos modelos se emplearon 34 variables financieras, así como variables dummys representativas de los sectores de actividad bajo consideración. Con esta metodología se obtuvo un poder de clasificación que osciló entre un 69,6% (Sector Agricultura, dos años de la entrada en quiebra) y un 91,2% (Sector Hostelería, un año de la entrada en quiebra). Los resultados obtenidos permitieron verificar total o parcialmente las tres hipótesis planteadas: En primer lugar, que los modelos globales o descentrados y los centrados o sectoriales eran modelos distintos. En segundo lugar, que la inclusión de variables cualitativas sectoriales mejoraba los modelos globales estimados. Y, en tercer lugar, se verificó, si bien parcialmente, que los modelos globales o descentrados eran superiores a los centrados o sectoriales a la hora de predecir la insolvencia, con la única excepción del modelo del sector industrial dos años antes de la quiebra. Para el resto de modelos, los modelos globales estimados, uno y dos años antes de la quiebra, fueron capaces de obtener mejores resultados de predicción en las muestras sectoriales que los propios modelos centrados.