1000 resultados para Diseño conceptual de bases de datos
Resumo:
La segmentación del mercado y el conocer al cliente es aún más importante hoy en día para contrarrestar los efectos de la recesión y la poderosa competencia que se ha presentado por la apertura del mercado latinoamericano y simultáneamente aprovechar las tendencias hacia la fusión, la adquisición y la consolidación del mercado. Este artículo pretende promover Investigaciones de Mercado más sofisticadas, enfatizando la importancia del establecimiento y la manipulación de una base de datos. Por la discusión de un estudio del sector bancario se ve el uso de dos técnicas del análisis multivariado. A pesar de que el artículo enfoque sobre el sector bancario, los mismos conceptos son aplicables a cualquier sector, bien sea producto o servicio. Se divide el artículo en tres partes, en la primera se describe el porqué y los métodos para acumular y analizar información a partir de la base de datos, para disminuir riesgos en la segmentación y el lanzamiento de nuevos productos. La segunda parte nos muestra dos técnicas multivariadas, aplicadas en investigaciones de mercados al manipular los datos, bien conocidas por las agencias investigadoras: el análisis factorial (AF) y el análisis discriminador (AD). Finalmente, la tercera parte le presentará al gerente conclusiones y recomendaciones prácticas sobre la gestión de la relación con la agencia contratada para la presentación del análisis de los datos, para que sean más eficientes y precisos los esfuerzos del Departamento de Mercadeo en el procesode la segmentación del mercado.
Resumo:
Este documento describe brevemente el origen del Proyecto "Centro de Conocimiento sobre/de Grupos Étnicos Indígenas Centroamericanos" denominado "Proyecto GEIC". Expone su misión, sus objetivos y las actividades realizadas en la primera etapa en Costa Rica. Además, explica el proceso de creación de la Base de Datos CEGE y presenta algunas estadísticas elaboradas con la información contenida en la misma.
Resumo:
La normalización facilita la comunicación y permite el intercambio de información con cualquier institución nacional o internacional. Este objetivo es posible a través de los formatos de comunicación para intercambio de información automatizada como CEPAL, MARC., FCC.La Escuela de Bibliotecología, Documentación e Información de la Universidad Nacional utiliza el software MICROISIS en red para la enseñanza. Las bases de datos que se diseñan utilizan el formato MARC y para la descripción bibliográfica las RCAA2.Se presenta la experiencia con la base de datos “I&D” sobre desarrollo rural, presentando la Tabla de Definición de Campos, la hoja de trabajo, el formato de despliegue y Tabla de selección de Campos.
Resumo:
Contiene: El espíritu empresarial y la generación de empleos, Varela Villegas, Rodrigo -- Claude Shannon : genio de la informática, Gru Uchitel, Jaime -- Fijación de criterios para la implementación de una solución al transporte intermunicipal de pasajeros en el corredor vial del sur de la ciudad, Bueno O., Jorge Enrique -- Las matemáticas universitarias y las tecnologías computacionales, Bustamante Arias, Alfonso -- La depreciación en las grandes empresas del Valle del Cauca, Gómez, Eymar ; Motoa Henao, Diego Fernando ; Varela Villegas, Rodrigo -- Un diseño óptimo en tercera forma normal, Múnera Salazar, Luis Eduardo -- La videoconferencia, Machado Zamorano, Juan Carlos -- El menú de la economía colombiana, López Mercado, Gustavo Ernesto -- Una aplicación del método de análisis orientado a objetos de Grady Booch, Londoño Acosta, Guillermo ; Marmolejo, Lucy ; Ramírez, Ana María ; Rubianes, Andres Mauricio -- Los problemas del sector bursátil colombiano,Gómez Mejía, Alberto -- La enseñanza de los valores, Navia Klemperer, María Cristina
Resumo:
Cada día vemos cómo la programación orientada a objetos se consolida más en todas las áreas de aplicación de la informática. Ya no solamente se utiliza para el desarrollo de interfases gráficas usuario sino también en bases de datos, sistemas operativos, software de comunicaciones, desarrollo de aplicaciones en ambientes de red, software de gestión comercial, etc. En la programación estructurada tradicional, las funciones y los datos se manejan de forma separada, mientras que en la programación orientada a objetos las funciones y los datos están fuertemente ligados en entes llamados objetos. Al utilizar esta nueva filosofía de programación, se codifican la estructura y el comportamiento de los diferentes objetos, como también las relaciones e interacciones que existen entre ellos
Resumo:
El objetivo del curso es brindar procedimientos que se utilizan para la creación y mantenimiento de bases de datos en bibliotecas y centros de documentación. Enfatizamos en los aspectos siguientes: estructura de la base de datos considerado: campos variables; longitud de cada campo; pertinencia de cada campo; mensajes de ayuda que debe incluir etiquetas; normalización de puntos de acceso y pertinencia de que los formatos de salida sean normalizados.
Resumo:
El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.
Resumo:
Estándar para Diagrama de Casos de Uso -- Estándares para el diseño de ingreso al sistema -- Diseño de pantalla estándar para interfaz generación de reportes -- Estándares para el diseño de mensajes en la aplicación -- Estándares para diseño de pantalla de principal -- Diagrama de interrelación especifica -- Diagrama de componentes de SIGAP—Diseño -- Diagrama de contexto-- Diseño de la base de datos --Modelo conceptual -- Modelo lógico -- Modelo físico -- Diccionario de datos --Diagrama de clases -- Diseño de la arquitectura del sistema -- Arquitectura de las aplicaciones Web --Arquitectura JAVA -- Modelo vista – Controlador -- Arquitectura SIGAP -- Estimación de costos de implementación del SIGAP
Resumo:
Descripción de la Unidad de Saneamiento de la DISAM del MINSAL -- Descripción de elementos del enfoque del sistema de la situación actual -- Diagramas BPMN -- Descripción de elementos del enfoque del sistema de la situación propuesta -- Estándares de diseño de interfaces -- Modelo del diseño de arquitectura -- Diagrama de enfoque de sistemas de la situación propuesta -- Patrón del diseño de arquitectura -- Diseño de la base de datos-- Diseño de modelo conceptual de la base de datos -- Diseño de modelo lógico de la base de datos
Resumo:
En el presente trabajo, se analiza la creación y el desarrollo del Centro Universitario de los Valles, el cual es una dependencia de la Universidad de Guadalajara, institución con doscientos años de tradición. El interés en el estudio de este Centro Universitario radica en su novedosa propuesta educativa, consistente en una mezcla entre los modelos presencial y a distancia, mismo que ha hecho posible que un mayor número de jóvenes cursen sus estudios de educación superior en la región en donde se ubica este campus. El Centro Universitario de los Valles se distingue en el ámbito de la Red Universitaria por la implementación de un Modelo Académico no Convencional, el cual, como se mencionó líneas arriba, es una combinación entre la educación a distancia y la presencial. Respecto a esta propuesta se analizan los conceptos subyacentes a las nociones de estudiante, asesor/profesor, tutorías, aprendizaje, autogestión y trabajo a distancia. La información vertida por los encuestados permitió elaborar las conclusiones y recomendaciones, propósito de la presente Tesis. El instrumento tipo encuesta empleado fue de corte seccional, el cual constó, de cuestionamientos dirigidos tanto a los estudiantes como a los asesores/profesores, algunos de sus apartados son similares, con el propósito de triangular la información vertida entre los segmentos encuestados, lo que permitirá, de ser el caso, hacer comparaciones entre los segmentos. Dado que se conoce la población de cada subgrupo que compone la comunidad universitaria del CUValles a estudiar, esto es, el número total de estudiantes y académicos que la componen, se aplicó un muestreo probabilístico aleatorio simple, ya que cualquiera de los elementos de la población tiene la probabilidad de ser elegido. A pesar de que los estudiantes en la mayoría de los casos trabajan haciendo uso de las TIC’s, los asesores/profesores en una proporción cercana al 50 %, no lo hacen con la misma frecuencia. Los profesores argumentan que participan en los foros de discusión y revisan las actividades que solicitan a los estudiantes, en contraste, en opinión de los estudiantes, entre un 30 y un 40 por ciento de los asesores, requiere elevar sus niveles de desempeño, que se traduce en un dominio y en el manejo de la plataforma Moodle, así como en el diseño instruccional, además requiere hacer uso de herramientas pedagógico-didácticas, por otra parte, es fundamental que sea capacitado en el diseñar adecuadamente los materiales que emplea en sus sesiones presenciales así como incorporar y usar herramientas, que permitan compartir el aprendizaje, como las redes sociales, Facebook, Messenger, Twitter, Google Drive, etc., como herramientas de apoyo en sus clases, incorporando la enseñanza móvil y el trabajo en Academia. Dado que los factores expresados, son elementos con los que de alguna manera ya ha venido trabajando el CUValles, lo que se requiere es plantear las estrategias a implementar para el logro de la consolidación del Modelo de Aprendizaje. Por lo anterior y con base a las opiniones de los encuestados, se hacen las siguientes recomendaciones: • Redefinir los preceptos filosóficos, pedagógicos, didácticos y de aprendizaje del Modelo CUValles, aprobarlos en los órganos colegiados y de gobierno que corresponda y oficializarlos; • Diseñar y ejecutar cursos de inducción al Modelo Académico, tanto para estudiantes como para asesores, que permitan identificar de manera clara las características y roles de los estudiantes, los asesores y directivos; • Capacitar a lo comunidad universitaria del CUValles para que trabaje en el Modelo Académico, • Diseñaran los programas y planeaciones de las asignaturas, con base al Modelo, erradicando esquemas tradicionales de aprendizaje, recordemos que el aprendizaje no es producto de la presencia o de la distancia, sino de un buen diseño y método pedagógico; • Capacitar a los asesores/profesores en el diseño istruccional y en el manejo de la plataforma Moodle; • Actualizar a los asesores/profesores en el uso de herramientas en la enseñanza móvil, con el propósito de compartir el aprendizaje; • Incentivar el uso de la Biblioteca, bases de datos y demás herramientas de éste tipo, en las tareas cotidianas de aprendizaje; • Fortalecer los procesos de tutoría y de asesoría que realizan los asesores a sus estudiantes; • Combinar materiales que permitan solventar los requerimientos teóricos y prácticos de las asignaturas en los distintos PE; • Promover los procesos que permitan una enseñanza y aprendizaje integrados; • Promover la generación de entornos centrados en lo personal y en lo colaborativo del aprendizaje, fomentando el trabajo en grupo con proyectos conjuntos, en donde se supervise el progreso colectivo. Una de las premisas filosóficas que debe prevalecer en el Modelo de Aprendizaje del CUValles, es sin lugar a dudas, el armonizar las distintas estrategias que se implementen con un propósito común de “Brindar una educación de calidad”, tanto en sus procesos que involucran las actividades presenciales, como aquellas que se involucran en los procesos a distancia.
Resumo:
Los electrocardiogramas (ECG) registran la actividad eléctrica del corazón a través de doce señales principales denominadas derivaciones. Estas derivaciones son analizadas por expertos médicos observando aquellos segmentos de la señal eléctrica que determinan cada una de las patologías que pueden afectar al corazón. Este hecho en general, es un condicionante muy importante para el diseño de sistemas expertos de diagnóstico médico, ya que es preciso conocer, delimitar y extraer de la señal eléctrica aquellos segmentos que determinan la patología. Dar solución a estos problemas, sería fundamental para facilitar el diseño de sistemas expertos para el diagnóstico de enfermedades cardiacas. El objetivo de este trabajo es demostrar que es posible identificar patologías cardiacas analizando la señal completa de las diferentes derivaciones de los ECGs, y determinar puntos concretos que determinan la patología en lugar de segmentos de la señal. Para ello se ha utilizado una BBDD de electrocardiogramas y se ha determinado mediante un algoritmo, los puntos de la señal que determinan la patología. Se ha aplicado a la patología de bloqueos de rama y los puntos obtenidos con el algoritmo se han utilizado para el diseño de un clasificador automático basado en redes neuronales artificiales, obteniendo un coeficiente de sensibilidad del 100% y de especificad del 99.24%, demostrando su validez para el diseño de sistemas expertos de clasificación.
Resumo:
En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.
Resumo:
Introducción: el salmorejo cordobés está tomando fama a nivel nacional y reconocimiento internacional. Sin embargo, son muy diversas las formas de elaborarlo y, por tanto, las propiedades organolépticas y nutricionales del plato. Material y métodos: con la intención de realizar una estandarización del salmorejo y forma de elaboración que permita una posterior protección de su identidad, así como su caracterización nutricional, se ha realizado una encuesta sobre el 83% de los establecimientos de restauración de Córdoba (excluidos barrios periféricos y zona industrial) para indagar su forma de elaborarlo, en cuanto a denominación, ingredientes, preparación, precio, etc., mediante una encuesta administrada personalmente con 55 preguntas en 6 apartados. Resultado: el resultado ha sido que sólo un 21% de los establecimientos utiliza la denominación "salmorejo cordobés". Los ingredientes usados de forma sistemática se ajustan estadísticamente a una propuesta previa de sistematización y valoración nutricional, basada en datos bibliográficos y difundida en más de 50 idiomas, que corresponde a: 1.000 g de tomate, 200 g de pan de telera, 100 g de aceite de oliva virgen extra, 5 g de ajo de Montalbán y 10 g de sal. Esto corresponde por 100 g de producto a 117,4 kcal, 1,8 g de proteínas, 8,1 g de lípidos, 9,9 g de carbohidratos, 1,2 g de fibra y 380,7 mg de sodio. Como ingredientes extra minoritariamente se usa el vinagre (18% de las encuestas) y como guarnición de forma mayoritaria, taquitos de jamón y huevo duro, en tanto que algo más de un 25% añade un chorro de aceite sobre el producto terminado. Se elabora principalmente mediante vaso batidor o Termomix, siendo la receta usada de forma mayoritaria de origen familiar. Si bien se ha considerado tradicionalmente un plato estival, un 78% de establecimientos lo tienen todo el año. El 94% de los establecimientos lo consideran entre los diez platos más consumidos, y para el 18% es el más consumido del establecimiento. No existe relación entre la cantidad de salmorejo servido con el precio del plato, siendo este último acorde a los demás precios de cada establecimiento. Conclusiones: con estos datos y los previos obtenidos por medios bibliográficos se está en condiciones de estandarizar el salmorejo cordobés, tanto para un posible amparo de denominación protegida como para establecer un valor nutricional que pueda ser recogido en bases de datos composicionales y software nutricional, para la evaluación de encuestas o elaboración de dietas.
Resumo:
En el campo de la medicina clínica es crucial poder determinar la seguridad y la eficacia de los fármacos actuales y además acelerar el descubrimiento de nuevos compuestos activos. Para ello se llevan a cabo ensayos de laboratorio, que son métodos muy costosos y que requieren mucho tiempo. Sin embargo, la bioinformática puede facilitar enormemente la investigación clínica para los fines mencionados, ya que proporciona la predicción de la toxicidad de los fármacos y su actividad en enfermedades nuevas, así como la evolución de los compuestos activos descubiertos en ensayos clínicos. Esto se puede lograr gracias a la disponibilidad de herramientas de bioinformática y métodos de cribado virtual por ordenador (CV) que permitan probar todas las hipótesis necesarias antes de realizar los ensayos clínicos, tales como el docking estructural, mediante el programa BINDSURF. Sin embargo, la precisión de la mayoría de los métodos de CV se ve muy restringida a causa de las limitaciones presentes en las funciones de afinidad o scoring que describen las interacciones biomoleculares, e incluso hoy en día estas incertidumbres no se conocen completamente. En este trabajo abordamos este problema, proponiendo un nuevo enfoque en el que las redes neuronales se entrenan con información relativa a bases de datos de compuestos conocidos (proteínas diana y fármacos), y se aprovecha después el método para incrementar la precisión de las predicciones de afinidad del método de CV BINDSURF.