1000 resultados para excelencia
Resumo:
Es indudable que las Escuelas de Bibliotecología están preparando a los estudiantes para enfrentar los inminentes cambios que afectan la profesión bibliotecológica.El plan de estudios debe asegurar a los estudiantes una sólida formación que les permita a los profesionales competir en un ambiente tecnocratizado con absoluta confianza y seguridad. El bibliotecólogo debe ser un transmisor de innovación y comunicación y debe desenvolverse en un mundo competitivo, en donde debe ser agresivo, dinámico, líder, capaz de adoptar todo el cúmulo tecnológico y científico que desarrollan nuestras sociedades. Pero ante todo debe ser excelente y buscar la excelencia en todas sus actuaciones y en todas las funciones y actividades que realiza para satisfacer a un cliente ávido de información y de expectativas.
Resumo:
Es frecuente que las estructuras, una vez realizadas, muestren diferencias, respecto de su concepción original que, en ocasiones, pueden hacer necesaria una intervención posterior con el objetivo de corregir su comportamiento estructural. En otras ocasiones estas actuaciones se hacen necesarias como consecuencias de deterioros sufridos durante la vida útil de la estructura (daño estructural) o como consecuencia de cambios en el propio uso de la estructura. En cualquier caso, tanto en las situaciones descritas, como en muchas otras, la estructura ha de someterse a un proceso de monitorización que nos permita obtener información experimental de ciertos parámetros estructurales con los que afinar los modelos numéricos que de ellas se realizan. Esta jornada se ha estructurado en cuatro conferencias en las que investigadores de las universidades de Sevilla y Córdoba nos darán una visión divulgativa del problema, nos acercarán a alguna de sus técnicas y nos mostrarán algún caso práctico de gran interés. En la segunda conferencia, el profesor de la Universidad de Córdoba Dr. D. Rafael Castro Triguero, Ingeniero de Caminos, Canales y Puertos y con una amplia experiencia en monitorización de estructuras, mostrará las bases de alguna de estas técnicas y cómo, de la información obtenida, pueden inferirse parámetros estructurales para mejorar los modelos y/o detectar daños estructurales.
Resumo:
Es frecuente que las estructuras, una vez realizadas, muestren diferencias, respecto de su concepción original que, en ocasiones, pueden hacer necesaria una intervención posterior con el objetivo de corregir su comportamiento estructural. En otras ocasiones estas actuaciones se hacen necesarias como consecuencias de deterioros sufridos durante la vida útil de la estructura (daño estructural) o como consecuencia de cambios en el propio uso de la estructura. En cualquier caso, tanto en las situaciones descritas, como en muchas otras, la estructura ha de someterse a un proceso de monitorización que nos permita obtener información experimental de ciertos parámetros estructurales con los que afinar los modelos numéricos que de ellas se realizan. Esta jornada se ha estructurado en cuatro conferencias en las que investigadores de las universidades de Sevilla y Córdoba nos darán una visión divulgativa del problema, nos acercarán a alguna de sus técnicas y nos mostrarán algún caso práctico de gran interés. En la tercera conferencia, el profesor de la Universidad de Sevilla Dr. D. Víctor Jesús Compán Cardiel, Arquitecto, mostró cómo la técnica de monitorización conocida pos sus siglas en inglés OMA puede ser aplicada a estructuras antiguas, que forman parte del patrimonio, para aprender de estas estructuras y, llegado el caso, detectar daño en las mismas y poder tomar las medidas necesarias para mejorar su capacidad portante y, con ello, incrementar el tiempo por el que podremos disfrutar de estos singulares edificios.
Resumo:
Es frecuente que las estructuras, una vez realizadas, muestren diferencias, respecto de su concepción original que, en ocasiones, pueden hacer necesaria una intervención posterior con el objetivo de corregir su comportamiento estructural. En otras ocasiones estas actuaciones se hacen necesarias como consecuencias de deterioros sufridos durante la vida útil de la estructura (daño estructural) o como consecuencia de cambios en el propio uso de la estructura. En cualquier caso, tanto en las situaciones descritas, como en muchas otras, la estructura ha de someterse a un proceso de monitorización que nos permita obtener información experimental de ciertos parámetros estructurales con los que afinar los modelos numéricos que de ellas se realizan. Esta jornada se ha estructurado en cuatro conferencias en las que investigadores de las universidades de Sevilla y Córdoba nos darán una visión divulgativa del problema, nos acercarán a alguna de sus técnicas y nos mostrarán algún caso práctico de gran interés. En la cuarta y última conferencia, el profesor de la Universidad de Sevilla Dr. D. Javier Fernando Jiménez-Alonso, Ingeniero de Caminos, Canales y Puertos, investigador del comportamiento dinámico de pasarelas peatonales, habló de estrategias generales de diseño que se deben adoptar con el objetivo de garantizar, desde la fase de proyecto, el adecuado nivel de confort de este tipo de estructuras.
Resumo:
En la Conferencia se presentan los aspectos más destacados del proceso de fabricación de Moldeo por Transferencia de Resina (RTM) y sus aplicaciones en la industria aeronáutica. Para ello, se analizan los materiales compuestos de uso más mayoritario en la industria aeronáutica y los procesos de fabricación más frecuentes, desarrollándose con mayor extensión el denominado moldeo por transferencia de resina (RTM), en el que se analizan sucesivamente los aspectos relativos a la preforma, la resina, el molde y el proceso de inyección. A modo de aplicación se presentan diferentes ejemplos reales de aplicación de este proceso realizados en el Laboratorio de Fabricación Aeroespacial de la Universidad Politécnica de Madrid
Resumo:
In this paper we present a fast and precise method to estimate the planar motion of a lidar from consecutive range scans. For every scanned point we formulate the range flow constraint equation in terms of the sensor velocity, and minimize a robust function of the resulting geometric constraints to obtain the motion estimate. Conversely to traditional approaches, this method does not search for correspondences but performs dense scan alignment based on the scan gradients, in the fashion of dense 3D visual odometry. The minimization problem is solved in a coarse-to-fine scheme to cope with large displacements, and a smooth filter based on the covariance of the estimate is employed to handle uncertainty in unconstraint scenarios (e.g. corridors). Simulated and real experiments have been performed to compare our approach with two prominent scan matchers and with wheel odometry. Quantitative and qualitative results demonstrate the superior performance of our approach which, along with its very low computational cost (0.9 milliseconds on a single CPU core), makes it suitable for those robotic applications that require planar odometry. For this purpose, we also provide the code so that the robotics community can benefit from it.
Resumo:
Most approaches to stereo visual odometry reconstruct the motion based on the tracking of point features along a sequence of images. However, in low-textured scenes it is often difficult to encounter a large set of point features, or it may happen that they are not well distributed over the image, so that the behavior of these algorithms deteriorates. This paper proposes a probabilistic approach to stereo visual odometry based on the combination of both point and line segment that works robustly in a wide variety of scenarios. The camera motion is recovered through non-linear minimization of the projection errors of both point and line segment features. In order to effectively combine both types of features, their associated errors are weighted according to their covariance matrices, computed from the propagation of Gaussian distribution errors in the sensor measurements. The method, of course, is computationally more expensive that using only one type of feature, but still can run in real-time on a standard computer and provides interesting advantages, including a straightforward integration into any probabilistic framework commonly employed in mobile robotics.
Resumo:
Estudiaremos el vocabulario técnico presentado (tres grados de especialización) en cada uno de los centros de interés, y atenderemos a la capacidad léxica general de cada hablante, así como a su capacidad de alejamiento (descentralización) del núcleo temático general de cada centro. Al disponer también de una extensa base de datos sociológica referida a cada uno de los informantes de la muestra, extraeremos conclusiones sobre cómo las diferencias de atributos personales de los hablantes condicionan sus preferencias léxicas.
Resumo:
En este material se ofrecen nociones básicas sobre la evaluación de políticas, el diseño de la evaluación y el proyecto evaluativo. Todo ello por parte de una de las expertas españolas en materia de evaluación más reconocidas.
Resumo:
Historia de la entrada en la Biblioteca Nacional de España de la primera usuaria mujer, Mª Antonia Gutiérrez Bueno, y de los obstáculos que tuvo que vencer para poder ser admitida, ella y a partir de ese momento, todas las demás mujeres.
Resumo:
En este seminario se discutirán algunas de las convocatorias de financiación de proyectos de investigación básica y aplicada en psicología, dedicando especial atención a los procesos de evaluación y selección de proyectos dentro del Plan Nacional de I+D, y a las convocatorias específicas para jóvenes investigadores. Se comentarán también algunas de las convocatorias europeas.
Resumo:
Análisis de la volatilidad en el entorno financiero
Resumo:
En este trabajo se intenta obtener la noción de adjunción más débil entre estructuras difusas. Este trabajo continúa la línea de investigación en el estudio y construcción d adjunciones que han realizado los autores en contribuciones anteriores. Nos centraremos ahora en la noción de relación difusa que es en cierto sentido interpretable como una función difusa. Existen varios trabajos en la literatura relacionados con este tema. Entre todos ellos, trabajaremos con un enfoque próximo al de Ciric et al cuando definen las denominadas funciones parciales difusas. El nuevo concepto estudiado es el de relaciones difusas funcionales y la construcción de adjunciones entre ellas.
Resumo:
La profesión de economista en la banca actual está caracterizada por los cambios tecnológicos. Además de las funciones habituales de crédito y riesgos, se presentan tareas relacionadas con los social media.
Resumo:
Preguntarse acerca de la influencia que la tecnología pueda tener en la mentalidad de la creación implica preguntarse acerca del pasado y del futuro de la creación. No es posible separar el desarrollo tecnológico del desarrollo de la creación, porque tanto la tecnología como la creación son actividades que caracterizan marcadamente al ser humano. En cierta medida, todo hombre crea y usa para ello la tecnología que encuentra a su alcance, a veces incluso como una caja negra, sin comprenderla verdaderamente. Recursivamente, uno de los productos distinguidos del proceso de creación es la tecnología. En líneas generales, la tecnología actúa sobre el significante. No actúa sobre los significados más que indirectamente. En el caso de la música, no es ella, ni tan sólo el sonido, el objeto directo de su actuación: por medio de las tecnologías que se han venido usando hasta ahora, únicamente se alteran las unidades materiales cuya organización, dado un cierto conjunto de características convergentes en una situación, posee una cierta significación. La música, el sonido, las imágenes, el arte, no existen más que como representaciones en algún cerebro, en algún sistema que los reconoce como tales. Ello no debe ser óbice para pensar que no existan: son tan reales como cualquier otro ente que podamos considerar, pero son fenómenos, no cosas. En cuanto a esas tecnologías que nos ocupan, quisiera destacar en primer lugar el hecho de que sus últimas contribuciones están estrechamente ligadas al uso de todo tipo de máquinas de computación digital, es decir, ordenadores digitales. Es importante tomar nota de ello porque la introducción de la discretización de las señales comporta capacidades de almacenamiento, manipulación y transporte jamás alcanzadas con anterioridad. Tal panorama tecnológico, sensiblemente más complejo de lo que aquí se esboza, evolucionará rápidamente hasta que la fibra óptica conecte un gran número de puntos distantes en el globo. Otro de los aspectos que al principio me proponía tratar, la dispersión geográfica de las actividades basadas en la aplicación de las tecnologías de la comunicación, está íntimamente relacionada con ello. Muchos Eventos Artísticos Basados en Telecomunicaciones (EABT) pueden producirse en áreas geográficas muy grandes y se diferencian de otras experiencias artísticas en que su percepción no puede ser global. La dispersión geográfica ocurre cuando un EABT se percibe o se genera de forma claramente parcial debido a las diferencias locales en lo que concierne a las posibilidades tecnológicas y a los canales por los que es transmitido. Piénsese, por ejemplo, en el caso de un EABT donde confluyen diversas contribuciones televisivas y radiofónicas cuya localización geográfica sea diseminada. Como cada emisión afecta a una zona que le es característica, la percepción del paisaje creado por ese EABT varía en función de la situación geográfica desde la que se pretende observar. La dispersión mediática ocurre en virtud de la confluencia de medios diferentes. Como todo tipo de imágenes visuales, acústicas, incluso cinestésicas, puede ser transmitido y reproducido a cualquier distancia para su posterior reelaboración, y como esas informaciones son esencialmente similares, la creación artística experimenta grandes facilidades especialmente en el hipermedio , ese lugar donde confluye gran número de medios de forma que, desde su terminal, cada elaborador de información puede acceder a informaciones procedentes de otros elaboradores, reelaborarlas, aunque 'a priori' no sean de su especialidad, y devolverlas nuevamente a su origen o mandarlas a un destino nuevo: el pensamiento se expresa al modificar la materia que le sirve de soporte y accede por esa vía al dominio de otros pensamientos. La creación -comportamiento, manifestación, síntoma, del pensamiento-, tradicionalmente se ha expresado a través de medios diversos, antiguamente estancos. La introducción de las nuevas tecnologías ha sido más o menos ardua en cada medio. En general, como las nuevas tecnologías son descendientes directos de la física y de las matemáticas, su relación con esos medios ha dependido de lo matematizable que cada uno haya sido a lo largo de su historia, amén de las dimensiones del reto tecnológico que la implementación de herramientas adecuadas supone. Ahora que los niveles de aplicación de la tecnología a los diversos medios está más equilibrada, la creación teleinformática tiende a expresarse a través de formas cada vez más híbridas. El efecto del incremento en la velocidad de intercambio de información en la creación parece claro: difícilmente los EABT podrán ser considerados como eventos cerrados sobre sí mismos. Se trata de procesos de comunicación globales en los que la creación toma parte y se automodifica. En realidad eso siempre ha ocurrido fuera del hipermedio y de las telecomunicaciones. La obra de un autor es un proceso artístico de comunicación, igual que las obras pertenecientes a un determinado estilo. La novedad está en que el ritmo del proceso por el que se produce el intercambio de información no ha sido nunca tan intenso como en este momento, en el que cabe esperar diferencias cualitativas. Sea dicho de paso que, como efecto colateral, el ruido informativo es creciente y se impone una maduración de las técnicas de selección, en el momento inicial de esta reflexión muy primitivas. Conferencia publicada por primera vez en Media-Culture. Claudia Giannetti, Ed. Ediciones L'Angelot.