974 resultados para Base de datos
Resumo:
La segmentación del mercado y el conocer al cliente es aún más importante hoy en día para contrarrestar los efectos de la recesión y la poderosa competencia que se ha presentado por la apertura del mercado latinoamericano y simultáneamente aprovechar las tendencias hacia la fusión, la adquisición y la consolidación del mercado. Este artículo pretende promover Investigaciones de Mercado más sofisticadas, enfatizando la importancia del establecimiento y la manipulación de una base de datos. Por la discusión de un estudio del sector bancario se ve el uso de dos técnicas del análisis multivariado. A pesar de que el artículo enfoque sobre el sector bancario, los mismos conceptos son aplicables a cualquier sector, bien sea producto o servicio. Se divide el artículo en tres partes, en la primera se describe el porqué y los métodos para acumular y analizar información a partir de la base de datos, para disminuir riesgos en la segmentación y el lanzamiento de nuevos productos. La segunda parte nos muestra dos técnicas multivariadas, aplicadas en investigaciones de mercados al manipular los datos, bien conocidas por las agencias investigadoras: el análisis factorial (AF) y el análisis discriminador (AD). Finalmente, la tercera parte le presentará al gerente conclusiones y recomendaciones prácticas sobre la gestión de la relación con la agencia contratada para la presentación del análisis de los datos, para que sean más eficientes y precisos los esfuerzos del Departamento de Mercadeo en el procesode la segmentación del mercado.
Resumo:
Este documento describe brevemente el origen del Proyecto "Centro de Conocimiento sobre/de Grupos Étnicos Indígenas Centroamericanos" denominado "Proyecto GEIC". Expone su misión, sus objetivos y las actividades realizadas en la primera etapa en Costa Rica. Además, explica el proceso de creación de la Base de Datos CEGE y presenta algunas estadísticas elaboradas con la información contenida en la misma.
Resumo:
Esta base de datos contiene 30738 registros referenciales de la prensa religiosa costarricense, en formato CEPAL, elaborados utilizando el programa Microisis, en la Escuela Ecuménica de la Religión de la Universidad Nacional.Se presenta la experiencia y los procedimientos utilizados para la normalización de la base de datos Cabsys, desde la identificación y verificación de los artículos ingresados desde 1986, directamente de las fuentes originales: los periódicos religiosos, la complementación de los títulos, la elaboración de un archivo de autoridad de autor, la corroboración de los datos referenciales de ubicación; la normalización de los descriptores y la elaboración de un archivo de autoridad de materia.Se presentan cuadros ilustrativos sobre los artículos incluidos, por ejemplo: distribución de trabajos por autor, distribución por género, distribución por año de publicación, temas más representativos según descriptores asignados y correlación entre estos y las palabras del título de los artículos.
Resumo:
La normalización facilita la comunicación y permite el intercambio de información con cualquier institución nacional o internacional. Este objetivo es posible a través de los formatos de comunicación para intercambio de información automatizada como CEPAL, MARC., FCC.La Escuela de Bibliotecología, Documentación e Información de la Universidad Nacional utiliza el software MICROISIS en red para la enseñanza. Las bases de datos que se diseñan utilizan el formato MARC y para la descripción bibliográfica las RCAA2.Se presenta la experiencia con la base de datos “I&D” sobre desarrollo rural, presentando la Tabla de Definición de Campos, la hoja de trabajo, el formato de despliegue y Tabla de selección de Campos.
Resumo:
El objetivo del curso es brindar procedimientos que se utilizan para la creación y mantenimiento de bases de datos en bibliotecas y centros de documentación. Enfatizamos en los aspectos siguientes: estructura de la base de datos considerado: campos variables; longitud de cada campo; pertinencia de cada campo; mensajes de ayuda que debe incluir etiquetas; normalización de puntos de acceso y pertinencia de que los formatos de salida sean normalizados.
Resumo:
[ES]Este Trabajo de Fin de Grado (TFG) está relacionado con las prácticas efectuadas en la Guardia Municipal de San Sebastián (País Vasco) y pretende analizar las órdenes de protección concedidas a víctimas de violencia de género inmigrantes y nacionales para comprobar si existe alguna diferencia en cuanto a su aplicación. Asimismo, se pretende analizar el procedimiento efectuado por este cuerpo policial y servicios sociales en estos casos, así como el perfil de la víctima y el agresor. Por otra parte, se procura analizar aspectos controvertidos de la Ley Orgánica 1/2004 de Medidas de Protección Integral de la Violencia de Género. Para ello, se utilizara una metodología mixta. Por una parte de corte cualitativo realizando cuatro entrevistas (a dos víctimas, una agente de policía y una trabajadora social) para ahondar más respecto a este tema. En segundo lugar, desde una perspectiva cuantitativa se explorará la base de datos de la Guardia Municipal en materia de violencia de género para realizar un análisis estadístico. Finalmente, se abordaran las conclusiones a las que se ha llegado con este trabajo y se propondrán mejoras de cara a futuras investigaciones y a la operatividad de la Guardia Municipal.
Resumo:
Tesis (Optómetra). -- Universidad de La Salle, Facultad de Ciencias de La Salud. Programa de Optometría, 2015
Resumo:
Bogotá (Colombia) : Universidad de La Salle. Facultad de Ciencias Administrativas y Contables. Programa de Contaduría Pública
Resumo:
En el presente trabajo de fin de máster se realiza una investigación sobre las técnicas de preproceso del dataset de entrenamiento y la aplicación de un modelo de predicción que realice una clasificación de dı́gitos escritos a mano. El conjunto de dataset de train y test son proporcionado en la competencia de Kaggle: Digit Recognizer y provienen de la base de datos de dı́gitos manuscritos MNIST. Por tratarse de imágenes las técnicas de preproceso se concentran en obtener una imagen lo más nı́tida posible y la reducción de tamaño de la misma, objetivos que se logran con técnicas de umbralización por el método de Otsu, transformada de Wavelet de Haar y el análisis de sus componentes principales. Se utiliza Deep Learning como modelo predictivo por ajustarse a este tipo de datos, se emplean además librerı́as de código abierto implementadas en el lenguaje estádisto R. Por último se obtiene una predicción con las técnicas y herramientas mencio- nadas para ser evaluada en la competencia de Kaggle, midiendo y comparando los resultados obtenidos con el resto de participantes.
Resumo:
En este artículo se presenta el método y la base de datos que se requiere para realizar la valoración de la tierra. El método utilizado es el método de Alonso 1964, el cual se basa en el método de distancia y consiste en la aplicación de la ecuación de regresión múltiple. El método es el que aplica en la actualizad la Oficina de Avalúos de la Dirección General de Tributación Directa en Costa Rica.
Resumo:
Contiene consideraciones para la instalación de una base de datos sobre indicadores de la coyuntura económica a nivel regional que constituya un instrumento de apoyo para la adopción de políticas económicas en los países participantes.
Resumo:
[ES] Este proyecto surgió en el marco del proyecto de investigación:
Resumo:
Castellano. En este proyecto se desarrolla una aplicación web que permite la gestión de datos obtenidos en las pruebas que se realizan a los generadores síncronos en Banco de Pruebas. El objetivo de este proyecto es almacenar estos datos en una base de datos de forma que se encuentren centralizados para su posterior explotación.Para llevar a cabo esta tarea, se han utilizado tecnologías como PHP, MySQL, JavaScript y Ajax.
Resumo:
En este artículo describiremos cómo se ha realizado un Sistema para controlar la Información generada en una Base de Datos distribuida en lugares alejados geográficamente. La diferencia frente a otros sistemas más sofisticados radica en la economía, y la flexibilidad de la solución propuesta. El sistema de comunicaciones se instala sobre un soporte físico de extrema sencillez; con ello se consigue una instalación muy económica.
Resumo:
Este informe recoge la documentación generada para llevar a cabo una práctica interuniversitaria en el área de base de datos durante los cursos 09/10 y 10/11. Se ha desarrollado una experiencia entre la UPV/EHU y la Universidad de la Rioja incorporando de forma sistemática la telecolaboración, formando equipos de trabajo con estudiantes de las dos universidades que no se conocen entre sí y han trabajado a distancia. El proyecto se ha realizado en el ámbito de dos asignaturas de bases de datos concretas, una de cada universidad, donde las similitudes y diferencias entre ambas producen equipos heterogéneos. Los alumnos han colaborado en las diferentes fases de la creación de una base de datos, desde la invención de unos requisitos hasta la realización de consultas. Para el desarrollo de esta práctica se han elaborado enunciados detallados para cada fase con ejemplos del trabajo a realizar. Además se ha acordado una rúbrica de evaluación y una encuesta para valorar la experiencia. En el presente documento se recopila dicho material de soporte.