1000 resultados para Bibliotecas Universitarias-Servicios de información-Tesis y disertaciones académicas
Resumo:
El artículo explora las significaciones imaginarias en el campo de la bibliotecología en relación con las tecnologías de la información y la comunicación. Para el estudio se utilizaron entrevistas en profundidad que se llevaron a cabo sobre un grupo de egresadas de la carrera de Bibliotecología de la Universidad Nacional de La Plata (UNLP, Argentina) que actualmente desempeñan cargos de gestión en bibliotecas universitarias y de investigación. Las entrevistadas fueron situadas en un hipotético escenario futuro de diez años, y consultadas por los siguientes aspectos: posibles cambios en el volumen de trabajo, rutinas laborales, modificaciones probables en la composición del fondo documental, principales características de los usuarios, servicios y productos de información predominantes, saberes específicos necesarios. El análisis recupera los testimonios claves y representativos de las diferentes opiniones. En términos generales, se concluye que las entrevistadas tienen una mirada semejante acerca del progresivo incremento del uso de la tecnología, aunque sus opiniones difieren respecto de las transformaciones que en una década puedan generarse en los ámbitos bibliotecarios a partir de este fenómeno
Resumo:
En el presente trabajo se realiza una reseña del repositorio institucional Memoria Académica de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata, creado en 2006 y desarrollado por la Biblioteca Profesor Guillermo Obiols dependiente de la misma institución. Se relatan brevemente los objetivos del proyecto y sus características principales para focalizar luego en los impactos obtenidos en un corto plazo de tiempo, tanto hacia dentro como hacia afuera de la institución, lo que llevó naturalmente a que el equipo de trabajo se planteara como mandato promover y difundir la idea en el resto de la comunidad. Para ello se replantearon objetivos a partir de 2010 con un fuerte énfasis en la capacitación y formación de los recursos humanos del resto de las Bibliotecas de la UNLP y se iniciaron acciones concretas de difusión del movimiento de acceso abierto al conocimiento científico, con el fin de promover la creación de repositorios institucionales en todas las unidades académicas. Con la idea de compartir y transferir al resto de las Bibliotecas la experiencia del desarrollo de Memoria Académica, se programaron cursos de capacitación y actividades en conjunto que motivaron y favorecieron el liderazgo de las bibliotecas universitarias en el desarrollo de los repositorios
Resumo:
Esta presentación pretende mostrar una forma concreta de vehiculizar el acceso abierto en las instituciones científico-académicas a través de la construcción de repositorios institucionales, tomando como ejemplos concretos tres casos exitosos que se están desarrollando en el ámbito de las bibliotecas universitarias argentinas: Memoria Académica de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata (FaHCE-UNLP), la Biblioteca Digital de la Universidad Nacional de Cuyo (UnCuyo)y la Biblioteca Digital de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (FCEN-UBA). Se repasarán las características principales de estos proyectos, su génesis, desarrollo, implementación y resultados obtenidos a la fecha, con la idea de mostrar como las bibliotecas pueden convertirse en espacios propicios dentro de las instituciones para desarrollar estas propuestas. Al mismo tiempo, se pretende mostrar cómo estas iniciativas pueden convivir y complementarse sin competir con la edición tradicional de revistas, libros y otros materiales tanto en papel como en formato electrónico
Resumo:
El avance de las tecnologías y el aumento de la cantidad de trabajos científicos ha forjado un nuevo contexto a nivel mundial, por lo que, la Biblioteca Profesor Guillermo Obiols se ha propuesto divulgar la literatura de carácter científico que se produce en el ámbito de las Facultades de Humanidades y Ciencias de la Educación y de Psicología de la Universidad Nacional de La Plata. Para ello se han emprendido distintos proyectos que siguen la filosofía del movimiento internacional de Acceso Abierto (AA). Este trabajo se propone describir los procesos realizados a las publicaciones científicas de estas unidades académicas, desde su edición en papel hasta su disponibilidad en línea a texto completo en el repositorio institucional Memoria Académica, con el fin de darles visibilidad internacional. Además, se detalla la metodología empleada para conseguir el propósito, haciéndose hincapié en la preservación y descripción de los documentos.
Resumo:
Fil: Fushimi, Marcela. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
El outsourcing o externalización de servicios es una herramienta de gestión que delega un área o actividad de trabajo de una organización a una empresa externa, llamada outsourcer, especializada en el servicio demandado. Entregar un proceso en outsorcing puede resultar complejo a causa de los procesos que están involucrados. Por ello es necesaria una evaluación que permita la selección del proveedor de outsorcing. La investigación se propone: 1. Elaborar un análisis comparativo de empresas que brindan servicios documentales a unidades de información, 2. Aportar una herramienta metodológica que permita evaluarlas teniendo en cuenta criterios específicos para aquellas que realizan outsorcing documental, 3. Evaluar una muestra de empresas como ejemplo de aplicación de la criteria creada. Se estudiarán empresas de servicios documentales de Argentina y España y se confeccionará una criteria como medio para validarla. Se empleará la herramienta creada para evaluar una muestra de empresas y, por último, se tabularán los datos y analizarán los resultados. Se espera que la difusión de los resultados contribuya a que las unidades de información puedan responder a los cambios del entorno a través del incremento del nivel de calidad de sus actividades, aumentar la flexibilidad de las organizaciones asegurando la supervivencia organizacional en los procesos que generan los productos y servicios, en la manera de hacerlos y ofrecerlos, estimular el interés de optar por el outsorcing como nueva forma de gestión tratando de asistir a quienes deban seleccionar empresas prestadoras de servicios documentales, reducir y controlar los costos operativos.
Resumo:
El objetivo de la colección de una biblioteca universitaria es satisfacer las necesidades de información que demandan las actividades académico-científicas de la institución. Una manera de comprobar si la biblioteca cumple dichas funciones es evaluar la colección aplicando métodos y técnicas que permitan valorar la adecuación a estas necesidades. De acuerdo a los objetivos que se persigan los métodos más utilizados para evaluar las colecciones pueden dividirse en dos grandes grupos: los centrados en el uso y los centrados en la colección. Dentro de éste último se ubican las llamadas listas de control (catálogos, bibliografías, programas de estudio, etc.). Utilizando como fuente de datos los programas de estudio de las 37 materias que conforman la carrera de Licenciatura en Geología que se dicta en la Facultad de Ciencias Naturales y Museo de la UNLP, se capturaron las referencias bibliográficas de los libros impresos y se cotejaron con el catálogo de la biblioteca, con el objetivo de determinar el porcentaje de adecuación de la colección; el promedio de ejemplares por título; la capacidad idiomática y la antigüedad de la colección en la temática. Los resultados obtenidos permitieron verificar el grado de adecuación de la colección de Geología a las necesidades de enseñanza del grado académico, además de generar información sobre los títulos ausentes en la colección que la biblioteca debería adquirir para aumentar su capacidad de respuesta.
Resumo:
El propósito es compartir una experiencia de gestión de la Biblioteca Mayor de la Universidad Nacional de Córdoba, a través de la implementación de las normas ISO 9001: 2008, adoptando una nueva filosofía comprometida con los principios de la calidad y en la optimización del aprendizaje organizacional, orientado a dar respuestas a las necesidades de los usuarios por medio de servicios basados en innovaciones tecnológicas y bibliotecológicas. Este trabajo se basa en un estudio de caso describiendo los componentes del sistema, enriquecido con aportes de entrevistas personalizadas pertenecientes a distintos sectores involucrados con el proceso de certificación de la Biblioteca. Se analizan los obstáculos encontrados y los logros obtenidos basados en la mejora continua de los servicios. La obtención de una certificación no constituye un fin, sino es el comienzo de un proceso constructivo enmarcado en una cultura de la calidad, con una dinámica nueva de gestión que permite evaluar lo que se hace y como se hace.
Resumo:
Se aborda el tema de la ética de la información y su incidencia sobre el acceso, poniendo énfasis en el aspecto deontológico, y se trata de afirmar la idea delcompromiso de los rofesionales de la información con el momento histórico en el que les toca desempeñarse.
Resumo:
El ritmo acelerado al que llegan y desaparecen tendencias, novedades, herramientas, tecnologías, dispositivos, servicios, etc., en nuestra sociedad de la información exige a cualquier ciudadano cierta capacidad para interiorizar esa complejidad. En el artículo se presenta y desarrolla muy brevemente un modelo simplificado que nos ayudará en el análisis de tres fenómenos clave para entender el estadio evolutivo actual de la Web como parte más visible de la Red: el periodismo ciudadano, las redes sociales y la Web en tiempo real. Se basa en tres elementos (infotecnologías, personas y contenidos) y se articula sobre tres ejes (información, relación y comunicación). El modelo quiere servir al lector como herramienta intelectual y referencia conceptual para profundizar en cualquiera de sus dimensiones.
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).
Resumo:
En los modelos promovidos por las normativas internacionales de análisis y gestión de riesgos en sistemas de información los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la Organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre éstos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan únicamente información imprecisa, de modo que las técnicas borrosas pueden ser muy útiles en este ámbito. Para poder dar un tratamiento computacional a esta información imprecisa es necesario proveer a los expertos de un método con el que puedan expresar sus juicios probabilísticos o sus valoraciones sobre los activos de información en forma de números difusos y evitando sesgos informativos. Una vez obtenidos tales valores, hemos de construir algoritmos que nos permitan establecer indicadores de impacto y riesgo para las amenazas que se ciernen sobre los activos de información, y finalmente debemos proponer conjuntos óptimos de salvaguardas y controles para reducir el riesgo a un nivel asumible. En este trabajo desarrollamos elementos que permiten realizar todo este proceso partiendo de los conceptos básicos de Lógica Borrosa y de las metodologías internacionales de análisis y gestión de riesgos en los sistemas de información.
Resumo:
La correcta validación y evaluación de cualquier algoritmo de registro incluido en la línea de procesamiento de cualquier aplicación clínica, es fundamental para asegurar la calidad y fiabilidad de los resultados obtenidos con ellas. Ambas características son imprescindibles, además, cuando dicha aplicación se encuentra en el área de la planificación quirúrgica, en la que las decisiones médicas influyen claramente en la invasividad sobre el paciente. El registro de imágenes es un proceso de alineamiento entre dos o más de éstas de forma que las características comunes se encuentren en el mismo punto del espacio. Este proceso, por tanto, se hace imprescindible en aquellas aplicaciones en las que existe la necesidad de combinar la información disponible en diferentes modalidades (fusión de imágenes) o bien la comparación de imágenes intra-modalidad tomadas de diferentes pacientes o en diferentes momentos. En el presente Trabajo Fin de Máster, se desarrolla un conjunto de herramientas para la evaluación de algoritmos de registro y se evalúan en la aplicación sobre imágenes multimodalidad a través de dos metodologías: 1) el uso de imágenes cuya alineación se conoce a priori a través de unos marcadores fiables (fiducial markers) eliminados de las imágenes antes del proceso de validación; y 2) el uso de imágenes sintetizadas con las propiedades de cierta modalidad de interés, generadas en base a otra modalidad objetivo y cuya des-alineación es controlada y conocida a priori. Para la primera de las metodologías, se hizo uso de un proyecto (RIRE – Retrospective Image Registration Evaluation Project) ampliamente conocido y que asegura la fiabilidad de la validación al realizarse por terceros. En la segunda, se propone la utilización de una metodología de simulación de imágenes SPECT (Single Photon Emission Computed Tomography) a partir de imágenes de Resonancia Magnética (que es la referencia anatómica). Finalmente, se realiza la modularización del algoritmo de registro validado en la herramienta FocusDET, para la localización del Foco Epileptógeno (FE) en Epilepsia parcial intratable, sustituyendo a la versión anterior en la que el proceso de registro se encontraba embebido en dicho software, dificultando enormemente cualquier tarea de revisión, validación o evaluación.
Resumo:
El objetivo principal de este proyecto será la obtención de una cartografía derivada empleando servicios OGC. Dado que se desconoce la funcionalidad y disponibilidad de dichos servicios se tendrá que hacer un análisis a priori de dichos servicios y a partir de este se seleccionará una zona de trabajo, objetivo y escala adecuada del mapa final. Objetivos Específicos: - Exploración y análisis de las diferentes IDEs dependientes de organizaciones oficiales. - Analizar la disponibilidad real de datos en sus correspondientes servicios de WFS, así como sus posibilidades de descarga y necesidad de registro. - Elección de una zona de trabajo, fin del mapa y escala adecuada. - Creación de una cartografía base. - Creación del mapa del Camino de Santiago a su paso por La Rioja y Navarra, relacionado con los monumentos y bodegas de la zona. - Impresión y maquetación.na de trabajo, objetivo y escala adecuada del mapa final. El Open Geospatial Consortium (OGC) fue creado en 1994 y agrupa (en febrero de 2009) a 372 organizaciones públicas y privadas. Su fin es la definición de estándares abiertos e interoperables dentro de los Sistemas de Información Geográfica y de la World Wide Web. Persigue acuerdos entre las diferentes empresas del sector que posibiliten la interoperación de sus sistemas de geoprocesamiento y facilitar el intercambio de la información geográfica en beneficio de los usuarios. Facilitar el acceso del público en general a productos cartográficos y descargas de información geográfica de gran calidad, siempre actualizados y cumpliendo requisitos de interoperabilidad. En este análisis tenemos en cuenta los siguientes servicios: - Web Map Service (WMS), o Servicios Web de Mapas - Web Feature Services (WFS), o Servicios Web de Entidades vectoriales - Web Coverage Services (WCS), o Servicios Web de Coberturas ráster.
Resumo:
Este trabajo fin de Máster consiste en la realización de un modelo de respuesta ante procesos de concentración de proveedores, que permita a las empresas proveedoras de servicios profesionales adaptarse a las necesidades crecientes o decrecientes que puedan plantearse en los clientes, además de identificar las diferentes problemáticas que puedan aparecer, de cara a realizar una gestión adecuada de las mismas, garantizando la sostenibilidad económica del negocio. Este modelo de respuesta, estará formado por una serie de mecanismos, que mediante su activación posibilitarán que las empresas de servicios se encuentren preparadas y con garantías en las dos vertientes posibles que se derivan de un proceso de concentración, la más positiva, en la que el desarrollo de actividad requiera nuevas habilidades o nuevos dimensionamientos y la vertiente negativa, donde el nivel de actividad disminuirá. ---ABSTRACT---This Master final work is based on the creation of a response model for the concentration processes carried out by professional services clients, enabling companies that provides this kind of services the capabilities to be adapted for the increasing or decreasing needs that may arise, and identifying the problems that can appears, in order to make a proper management of them and ensuring the economic sustainability of the business. This pattern of response will consist on several mechanisms, which through its activation will enable the capabilities for professional services companies to be prepared and guaranteed the two possible angles derived from a concentration process, the more positive, where activity requires the development of new skills or new sizing and the negative one, where the level of activity decrease or disappears.