53 resultados para Roberto Piva
em Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco
Resumo:
1 carta y 2 tarjetas postales (manuscritas y mecanografiadas) ; entre 215x235mm y 151x130mm. Ubicación: Caja 1 - Carpeta 32
Resumo:
Published also as: Documento de Trabajo Banco de España 0504/2005.
Resumo:
The main objective of this paper is to analyse the value of information contained in prices of options on the IBEX 35 index at the Spanish Stock Exchange Market. The forward looking information is extracted using implied risk-neutral density functions estimated by a mixture of two-lognormals and three alternative risk-adjustments: the classic power and exponential utility functions and a habit-based specification that allows for a counter-cyclical variation of risk aversion. Our results show that at four-week horizon we can reject the hypothesis that between October 1996 and March 2000 the risk-neutral densities provide accurate predictions of the distributions of future realisations of the IBEX 35 index at a four-week horizon. When forecasting through risk-adjusted densities the performance of this period is statistically improved and we no longer reject that hypothesis. All risk-adjusted densities generate similar forecasting statistics. Then, at least for a horizon of four-weeks, the actual risk adjustment does not seem to be the issue. By contrast, at the one-week horizon risk-adjusted densities do not improve the forecasting ability of the risk-neutral counterparts.
Resumo:
[EN] Data contained in this record come from the following accademic activity (from which it is possible to locate additional records related with the Monastery):
Resumo:
12 p.
Resumo:
[ES] El gran reto de la empresa de servicios en la actualidad es orientarse con mayor precisión a sus clientes y conseguir su satisfacción y lealtad. Si bien el impulso de la innovación, el uso de tecnologías de información, y concretamente la creación de valor son factores decisivos, el gran factor a dirigir con una mejor proyección es el factor humano. Sin un enfoque consistente orientado a la persona, no será posible desarrollar la capacidad de servir al cliente en la organización.
Resumo:
In this paper we empirically investigate which are the structural characteristics that can help to predict the complexity of NK-landscape instances for estimation of distribution algorithms. To this end, we evolve instances that maximize the estimation of distribution algorithm complexity in terms of its success rate. Similarly, instances that minimize the algorithm complexity are evolved. We then identify network measures, computed from the structures of the NK-landscape instances, that have a statistically significant difference between the set of easy and hard instances. The features identified are consistently significant for different values of N and K.
Resumo:
Este proyecto se sitúa en el ámbito de las empresas que ofertan servicios informáticos a terceros. Estas empresas se dedican a cubrir las necesidades de gestión de la infraestructura de sistemas y servicios de los clientes. En concreto, los proyectos de ampliación de esas infraestructuras suelen ser bastante problemáticos. Este proyecto desarrolla un conjunto de procedimientos que permiten gestionar la ampliación de una infraestructura de sistemas y servicios de acuerdo a una librería de buenas prácticas denominada ITIL.
Resumo:
Methods for generating a new population are a fundamental component of estimation of distribution algorithms (EDAs). They serve to transfer the information contained in the probabilistic model to the new generated population. In EDAs based on Markov networks, methods for generating new populations usually discard information contained in the model to gain in efficiency. Other methods like Gibbs sampling use information about all interactions in the model but are computationally very costly. In this paper we propose new methods for generating new solutions in EDAs based on Markov networks. We introduce approaches based on inference methods for computing the most probable configurations and model-based template recombination. We show that the application of different variants of inference methods can increase the EDAs’ convergence rate and reduce the number of function evaluations needed to find the optimum of binary and non-binary discrete functions.
Resumo:
Este trabajo es fruto de la revisión lexicográfica del Glosario del cáncer (AECC (2007): Glosario del cáncer. Bilbao: Aula de medicina y conocimiento, 103 páginas) que, en fase de redacción, se realizó, por encargo y cuya publicación se llevó a cabo en el año 2007. El Glosario del cáncer consta de 668 voces y fue elaborado por un grupo de oncólogos para una empresa que desarrolla sus actividades en el sector de la comunicación. Estos delimitaron el número y el tipo de entradas y se encargaron de la validación del lemario. Al ser una obra colectiva y no tener marcados unos criterios previos para la redacción y organización de la información de los artículos lexicográficos, la sensación de incoherencia y falta de sistematicidad se hacía patente en cada página. Así pues, en este artículo se describe la labor llevada a cabo en la mencionada revisión lexicográfica y que consistió en fijar unas normas claras de redacción, tanto de la macroestructura como de la microestructura y describir con precisión qué información debía contener cada entrada, pues en unos casos se limitaban a una o dos líneas y, en otros, llegaban hasta las quince o incluso las veinte líneas. Después de una amplia revisión se pudo homogeneizar el contenido de las entradas y su grafía. Asimismo se describen las incoherencias y errores hallados. En primer lugar, se observa que la selección de los términos no había sido hecha con unos criterios restablecidos, algo bastante frecuente en este tipo de obras, sino que cada especialista había incluido aquellas voces que consideró necesarias, es decir, la base, el esqueleto del glosario no tenía una estructura coherente. Esto motivaba, por un lado, que se repitieran algunas entradas y quedaran excluidas otras cuya necesidad se hacía evidente y, por otro, el sistema de interconexiones que permite ir de un término a otro, para obtener la mayor información pertinente, no cumplía su propósito. Por otro lado, el contenido de la microestructura presentaba una falta total de coherencia. Por consiguiente fue necesario analizar qué lengua y qué términos se usarían en las explicaciones de los sentidos. Se buscaron los epónimos necesarios y una vez establecidos, se procedió a seleccionar la información pertinente y obligatoria que debía aparecer en la definición, para tratar de establecer esquemas definicionales con el fin de que la sistematicidad fuera completa: los síntomas y nombres de enfermedades, trastornos, remedios farmacológicos, medios técnicos, organismos, etc., aparecen representados de manera desproporcional, otorgando una información más precisa y extensa en unas entradas que en otras, con lo que se crean modelos definicionales dispares, que producen, por consiguiente, una idea de falta de sistematicidad en el lector. Por último, el artículo muestra la evidente necesidad de confeccionar glosarios de tecnicismos que faciliten las labores de los profesionales de otros campos no familiarizados con esos tecnicismos, sobre todo de las personas que deben comunicar algo acerca de un ámbito del que no son especialistas.
Resumo:
La labor divulgativa que ejercen los medios de comunicación en todos los ámbitos, se extiende, ¡cómo no!, también al de las ciencias de la salud. La televisión, la radio y la prensa han ido introduciendo en la lengua estándar una serie de términos que conservan la fascinación y el prestigio de una lengua de especialización técnica y, que la mayoría de los usuarios de la lengua engullen como si se tratara de algo normal, sin pararse a reflexionar sobre la comprensión del mensaje que acaban de oír o de leer. En muchas ocasiones, el vocabulario científico no es desconocido para los hablantes de una lengua porque se ha ido formando a partir de palabras de la lengua estándar a las que se dota de un significado especializado. En otras ocasiones, no es que se produzca un cambio de significado de los términos cuando su uso se populariza, sino que se convierten en desusados o arcaicos en el ámbito de la ciencia y terminan desapareciendo, pero siguen vivos en el habla cotidiana. Son los casos de calentura, paperas, piedras… que habiendo sido términos propios de la medicina en su tiempo, en la actualidad son palabras corrientes y, poco empleadas en el mundo científico e incluso en la prensa no especializada. Se puede hablar de distintos tipos de relación entre el léxico científico y el estándar. Hay voces que pertenecen a un léxico especializado que son utilizadas por cualquier hablante de la lengua como productores de mensajes y que no conllevan dificultad alguna para la codificación o descodifación de los mensajes. Otras veces, manejamos el léxico especializado como usuarios: Me tratan con antidiuréticos, me han prohibido la riboflavina, tengo muy alto el GTP. Por otro lado, todos conocemos un léxico especializado básico que hemos adquirido en la escuela: hematíe, leucocito, sistema linfático… Existe, asimismo, un uso ultraespecializado de uso exclusivo entre los profesionales en situaciones que se refieren a su propia área de especialización. Teniendo, pues, en cuenta los diversos tipos de relación entre el lenguaje común y el científico, en este artículo se estudia si los lectores de prensa no especializada entienden el vocabulario científico referido a las ciencias de la salud y si están familiarizados o no con esos términos. Para comprobar el conocimiento del sentido de algunas voces se realizó un vaciado de los términos marcados con la abreviatura Med. ‘Medicina y Ciencias de la Salud’ en el Diccionario de español actual. Con los términos que recoge este diccionario, y que consideramos, por su frecuencia de aparición en el Banco de Datos CREA (Corpus de Referencia del Español Actual) de la RAE y en las bases documentales de algunos medios de comunicación, como de uso frecuente, se elaboró un cuestionario con el que recogemos la opinión de un grupo de alumnos de la UPV/EHU de las licenciaturas de Periodismo, Publicidad y Relaciones Públicas, Comunicación Audiovisual y Traducción e Interpretación. El análisis de los datos permite un mejor conocimiento de la relación entre el lenguaje científico de las Ciencias de la Salud, que utilizan los medios de comunicación en sus informaciones y el dominio de la lengua que manifiestan los hablantes universitarios que han elegido profesiones en las que la lengua es una herramienta básica en su quehacer diario.
Resumo:
[EN] This academic activity has been the origin of other work that are also located in this repository. The first one is the dataset of information about the geometry of the Monastery recorded during the two years of fieldwork, then some bachelor thesis and papers are listed:
Resumo:
Eterio Pajares, Raquel Merino y José Miguel Santamaría (eds.)
Resumo:
El tema abordado por este proyecto es la información disponible acerca de los horarios del transporte público en las ciudades, concretamente centrado en la ciudad de Donostia - San Sebastián. En esta ciudad, la información ofrecida a los usuarios está centrada en: Tiempo que falta para que lleguen los autobuses. Únicamente accesible en las marque- sinas. Horarios con la primera hora de salida y la frecuencia de la línea. Estos métodos de información se pueden mejorar mediante un sistema de información en tiempo real, el cual informe de la posición actual de cada autobús de cada línea a petición del usuario. Asimismo, siendo esta información accesible a través de un servicio web, se evita el tener que desplazarse a las marquesinas para informarse. Por tanto, estos son los objetivos que se consideran para el proyecto. La realización de un servicio web que muestre a petición del usuario las líneas de transporte público disponibles y este pueda seleccionar cuales visualizar, de manera que al seleccionar una línea se muestren todos los vehículos de dicha línea y su posición actual.
Resumo:
Egun sare informatikoak ezinbesteko tresna bilakatu dira eguneroko eginkizun askotarako. Horren ondorioz, mota guztietako informazio mordoa garraiatzen da sarean barna. Sarearen erabilerak hainbat abantaila ekarri ditu, baina baita arriskuak ere. Sareko informazio horri guztiari etekina atera nahian zenbait informazio lapur eta zibergaizkilek tresnak garatzen dituzte etengabe. Arazo horri aurre egiteko babes mekanismo ugari garatu dituzte segurtasun aditu eta eragileek. Baina era berean, mekanismo horiek gainditzeko erasoak automatizatzeko eta indartzeko gai diren tresnak berriak agertu dira. Azken hauen artean kokatzen dira botnet-ak, gaur egungo mehatxu handienetako bat segurtasun aditu askoren iritziz. Botnetak kontroladore baten edo batzuen agindupean egon daitezkeen makina multzoak dira. Makina horiek, bot edo zombie izenez ezagunak, ezkutuan martxan dagoen software bati esker kontrolatu ohi dira. Jatorrian bot-en mekanismoa atazak automatizatzeko erabiltzen bazen ere, gaur egun ezaugarri hori aprobetxatuz erasoak eta beste motako ekintza ez-zilegi batzuk egiteko erabiltzen dira. Botneten tamaina milaka makinakoa izatera irits daiteke. Horri esker egin ditzaketen erasoen ahalmena handitu egiten da eta, ondorioz, etekin handiagoa ateratzeko aukerak handitzen dira ere. Beste ezaugarri nagusienetako bat malwareren bati esker kontrolpean dauden makinen jabeak ohartu gabe funtzionatzea da. Azken urteotan botneten hazkundea nabarmena izan da eta izugarrizko mehatxua bilakatu dira sarearen funtzionamendurako eta sareko sistemen segurtasunerako. Horrek motibatuta garatu da proiektu hau. Funtsean botnetak zer diren, hauen bilakaera eta nola funtzionatzen duten azaldu nahi da. Segurtasun neurri batzuk ere aztertzen dira. Azkenik, azterketa praktikoa ere lantzen da, Zeus eta Flu izeneko botnetak modu lokalean probatuz.