792 resultados para Derecho-España-Bases de datos en línea


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento describe brevemente el origen del Proyecto "Centro de Conocimiento sobre/de Grupos Étnicos Indígenas Centroamericanos" denominado "Proyecto GEIC". Expone su misión, sus objetivos y las actividades realizadas en la primera etapa en Costa Rica. Además, explica el proceso de creación de la Base de Datos CEGE y presenta algunas estadísticas elaboradas con la información contenida en la misma. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se describen los procedimientos pedagógicos utilizados en el curso BGE215 Práctica Profesional Supervisada, en la Escuela de Bibliotecología, Documentación e Información (EBDI) de la Universidad Nacional (UNA) en Costa Rica y se comparan con los métodos, técnicas e instrumentos utilizados en la investigación cualitativa. Además, se aplica la triangulación para determinar la validez de las técnicas utilizadas para evaluar la práctica profesional supervisada, realizada en la Escuela.Los Sujetos de esta investigación fueron: 22 estudiantes de bibliotecología de tercer año, 20 encargados directos y dos académicas. Los objetos analizados fueron 22 tipos diferentes de productos elaborados en la práctica, 40 Informes de estudiantes y supervisores, las fichas catalográficas elaboradas, las bases de datos actualizadas. Además, se utilizaron como instrumentos en la recolección de la información hojas de cotejo, diario de visitas, entrevistas, informes impresos y orales, opiniones y la observación. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los resultados de la práctica final de graduación denominada "Catálogo de Autoridad Terminológico para el análisis de la información documental de la Comunidad Universitaria de Unidades de Información Especializadas en Ciencias Sociales (CUUICS)" que consistió en la revisión, corrección y normalización del vocabulario libre de las unidades de información documental: Biblioteca Eugenio Fonseca Tortós de la Universidad de Costa Rica, el Fondo Bibliográfico de la Escuela de Historia y el Centro de Información Documental de la Facultad de Ciencias Sociales de la Universidad Nacional (Costa Rica).   Los objetivos consistieron en: 1. Realizar un diagnóstico sobre el estado actual de los procesos de indización de la CUUICS y 2. Sistematizar y normalizar el lenguaje libre empleado por las unidades de información y proponer su uso dentro de la CUUICS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La normalización facilita la comunicación y permite el intercambio de información con cualquier institución nacional o internacional. Este objetivo es posible a través de los formatos de comunicación para intercambio de información automatizada como CEPAL, MARC., FCC.La Escuela de Bibliotecología, Documentación e Información de la Universidad Nacional utiliza el software MICROISIS en red para la enseñanza. Las bases de datos que se diseñan utilizan el formato MARC y para la descripción bibliográfica las RCAA2.Se presenta la experiencia con la base de datos “I&D” sobre desarrollo rural, presentando la Tabla de Definición de Campos, la hoja de trabajo, el formato de despliegue y Tabla de selección de Campos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se aborda el problema de la formación de una variedad regional intermedia entre el español centroseptentrional (Madrid) y las variedades meridionales innovadoras (Sevilla). Esta nueva variedad en formación, que se ha ido gestando en los centros urbanos de Andalucía Oriental (Málaga, Granada) y tiende a extenderse a áreas urbanas occidentales también, es una especie de coiné de rasgos de pronunciación centrales y meridionales que mezcla rasgos fonológicos innovadores no marcados con rasgos del estándar (Villena 2008; Hernández Campoy y Villena Ponsoda 2009). Se presentan datos y resultados surgidos en el marco del Proyecto sobre los Patrones Sociolingüísticos del Español de España (PASOS), en el marco del Proyecto internacional PRESEEA sobre las variedades urbanas del español de España y América. El proyecto PASOS estudia la convergencia y divergencia entre dialectos conservadores centrales e innovadores meridionales de España y compara datos de áreas urbanas centrales (Madrid, Alcalá de Henares, Valencia) y meridionales (Granada, Málaga, Las Palmas de Gran Canaria). El objetivo consiste en determinar: (1) si las diferencias entre las variedades en contacto se mantienen en la variedad coinética como diferencias graduales basadas en la frecuencia o si existen discontinuidades (conflict sites); (2) si se adoptan rasgos socialmente prominentes aunque se trate de rasgos fonológicamente marcados; (3) qué ocurre con los rasgos dialectales no marcados; (4) qué papel desempeñan la morfología y el léxico. Los resultados muestran la existencia de un continuo con solo algunas discontinuidades, en el que la nueva variedad acepta los rasgos prestigiosos marcados y los combina con rasgos no marcados de bajo prestigio social (Villena y Vida 2015). Lo más interesante de la nueva situación sociolingüística es que muestra un continuo centro-meridional de rasgos con una especie de convergencia «invertida» entre las variedades de las capas bajas del área central y las capas medioaltas de las áreas andaluzas, con especial mención de las ciudades orientales. Todas estas variedades parecen compartir las mismas constricciones sobre las variables pero se mueven a distinta velocidad. En este trabajo se atiende, en particular, a la variación fonológica y se comparan resultados de análisis sobre la escisión fonemática de las obstruyentes coronales y la detención de los cambios en cadena típicos del español andaluz, así como sobre un conjunto de cambios erosivos no marcados, como la elisión de /s/ distensiva y /d/ intervocálica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una de las primeras bases de datos públicas que estuvo a disposición en CD-ROM fue ERIC (Educational Resources Information Center), del Departamento de Educación de los Estados Unidos; actualmente, grandes bases de datos como MEDLINE, BRS y DIALOG están a disposición en CD-ROM. Las aplicaciones han ido creciendo desde entonces.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis versa sobre las Autoridades de control en materia de protección de datos. Se divide en tres capítulos, cuyo criterio de división ha sido el territorio: Europa, Estados Unidos y España. En todos ellos se estudia el origen del derecho a la protección de datos, los instrumentos normativos, la jurisprudencia y los organismos encargados de su supervisión, sobre los que se focaliza el desarrollo de la investigación. En el primer capítulo se distinguen tres secciones: el Consejo de Europa, que incluye el Convenio Europeo de Derechos Humanos y el Convenio 108 así como su Protocolo Adicional y el estudio sobre la revisión del mismo; las Directrices Internacionales, incidiendo en el análisis de las Directrices de privacidad de la OCDE, las de la ONU, el Marco de Privacidad del Foro de Cooperación Asia-Pacífico y los Estándares Internacionales de la Resolución de Madrid; y el tercero, la Unión Europea, cuyo estudio profundiza desde la creación del derecho fundamental hasta la normativa europea, examinando la Directiva 95/46/CE de Protección de Datos, el Reglamento (CE) 45/2001 que regula el tratamiento de datos personales en las instituciones de la Unión Europea, la Carta de los Derechos Fundamentales y el nuevo Reglamento General de Protección de Datos. Finaliza este bloque con un análisis pormenorizado de las Autoridades Europeas de Protección de Datos, haciendo especial énfasis en el Supervisor Europeo de Protección de Datos y en el Consejo Europeo de Protección de Datos, valorando la nueva situación que se creará en Europa. Especial relevancia tiene el análisis sobre las características de los organismos de control y en especial sobre la independencia. En el segundo capítulo se realiza un paralelismo entre los modelos estadounidense y europeo, buscando las similitudes y diferencias, para lo que se explica el concepto de privacidad y la protección que EEUU le otorga, así como el tratamiento dado por el principal organismo que tutela los derechos de los ciudadanos en materia de privacidad, la Comisión Federal del Comercio (Federal Trade Commission). Se somete a análisis el Asunto Safe Harbour. El tercer capítulo se dedica a España, donde se analiza el reconocimiento del derecho fundamental a la protección de datos como derecho atípico y el reparto competencial existente teniendo en cuenta que ni la materia ni la competencia son reconocidas en la Constitución española. Se examina la normativa al respecto y se desglosa la naturaleza, estructura y funcionamiento de la Agencia Española de Protección de Datos, en la que se procede a describir todas las funciones que el nuevo Reglamento General de Protección de Datos otorgará a las Autoridades de control nacionales. A nivel autonómico también se profundiza en las Autoridades de control, intentando valorar la problemática de las competencias asumidas por cada una de ellas. Se analiza más pormenorizadamente el Consejo Andaluz de Protección de Datos. Concluye la investigación con un apartado que recoge las principales aportaciones de la autora, tanto desde la observación como desde las propuestas de cambio o mejora. Destaca entre las mismas la necesidad de potenciar por parte de los estados e instituciones una mayor cultura de protección de datos, la necesidad de una autoridad de control a nivel europeo jerárquicamente superior, la de definir los parámetros de la independencia de dichas autoridades con exigencias superiores a las actuales, la necesidad de una modificación constitucional en España que recoja el derecho a la protección de datos como derecho fundamental así como el reparto competencial, y en Andalucía el aprovechamiento de las instituciones existentes en lugar de la creación de nuevos organismos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

29 p.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: el salmorejo cordobés está tomando fama a nivel nacional y reconocimiento internacional. Sin embargo, son muy diversas las formas de elaborarlo y, por tanto, las propiedades organolépticas y nutricionales del plato. Material y métodos: con la intención de realizar una estandarización del salmorejo y forma de elaboración que permita una posterior protección de su identidad, así como su caracterización nutricional, se ha realizado una encuesta sobre el 83% de los establecimientos de restauración de Córdoba (excluidos barrios periféricos y zona industrial) para indagar su forma de elaborarlo, en cuanto a denominación, ingredientes, preparación, precio, etc., mediante una encuesta administrada personalmente con 55 preguntas en 6 apartados. Resultado: el resultado ha sido que sólo un 21% de los establecimientos utiliza la denominación "salmorejo cordobés". Los ingredientes usados de forma sistemática se ajustan estadísticamente a una propuesta previa de sistematización y valoración nutricional, basada en datos bibliográficos y difundida en más de 50 idiomas, que corresponde a: 1.000 g de tomate, 200 g de pan de telera, 100 g de aceite de oliva virgen extra, 5 g de ajo de Montalbán y 10 g de sal. Esto corresponde por 100 g de producto a 117,4 kcal, 1,8 g de proteínas, 8,1 g de lípidos, 9,9 g de carbohidratos, 1,2 g de fibra y 380,7 mg de sodio. Como ingredientes extra minoritariamente se usa el vinagre (18% de las encuestas) y como guarnición de forma mayoritaria, taquitos de jamón y huevo duro, en tanto que algo más de un 25% añade un chorro de aceite sobre el producto terminado. Se elabora principalmente mediante vaso batidor o Termomix, siendo la receta usada de forma mayoritaria de origen familiar. Si bien se ha considerado tradicionalmente un plato estival, un 78% de establecimientos lo tienen todo el año. El 94% de los establecimientos lo consideran entre los diez platos más consumidos, y para el 18% es el más consumido del establecimiento. No existe relación entre la cantidad de salmorejo servido con el precio del plato, siendo este último acorde a los demás precios de cada establecimiento. Conclusiones: con estos datos y los previos obtenidos por medios bibliográficos se está en condiciones de estandarizar el salmorejo cordobés, tanto para un posible amparo de denominación protegida como para establecer un valor nutricional que pueda ser recogido en bases de datos composicionales y software nutricional, para la evaluación de encuestas o elaboración de dietas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo de la medicina clínica es crucial poder determinar la seguridad y la eficacia de los fármacos actuales y además acelerar el descubrimiento de nuevos compuestos activos. Para ello se llevan a cabo ensayos de laboratorio, que son métodos muy costosos y que requieren mucho tiempo. Sin embargo, la bioinformática puede facilitar enormemente la investigación clínica para los fines mencionados, ya que proporciona la predicción de la toxicidad de los fármacos y su actividad en enfermedades nuevas, así como la evolución de los compuestos activos descubiertos en ensayos clínicos. Esto se puede lograr gracias a la disponibilidad de herramientas de bioinformática y métodos de cribado virtual por ordenador (CV) que permitan probar todas las hipótesis necesarias antes de realizar los ensayos clínicos, tales como el docking estructural, mediante el programa BINDSURF. Sin embargo, la precisión de la mayoría de los métodos de CV se ve muy restringida a causa de las limitaciones presentes en las funciones de afinidad o scoring que describen las interacciones biomoleculares, e incluso hoy en día estas incertidumbres no se conocen completamente. En este trabajo abordamos este problema, proponiendo un nuevo enfoque en el que las redes neuronales se entrenan con información relativa a bases de datos de compuestos conocidos (proteínas diana y fármacos), y se aprovecha después el método para incrementar la precisión de las predicciones de afinidad del método de CV BINDSURF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bogotá (Colombia) : Universidad de La Salle. Facultad de Ciencias Administrativas y Contables. Programa de Contaduría Pública