824 resultados para Empirical Approach
Resumo:
This study investigated the empirical differentiation of prospective memory, executive functions, and metacognition and their structural relationships in 119 elementary school children (M = 95 months, SD = 4.8 months). These cognitive abilities share many characteristics on the theoretical level and are all highly relevant in many everyday contexts when intentions must be executed. Nevertheless, their empirical relationships have not been examined on the latent level, although an empirical approach would contribute to our knowledge concerning the differentiation of cognitive abilities during childhood. We administered a computerized event-based prospective memory task, three executive function tasks (updating, inhibition, shifting), and a metacognitive control task in the context of spelling. Confirmatory factor analysis revealed that the three cognitive abilities are already empirically differentiable in young elementary school children. At the same time, prospective memory and executive functions were found to be strongly related, and there was also a close link between prospective memory and metacognitive control. Furthermore, executive functions and metacognitive control were marginally significantly related. The findings are discussed within a framework of developmental differentiation and conceptual similarities and differences.
Resumo:
The GOCE satellite was orbiting the Earth in a Sun-synchronous orbit at a very low altitude for more than 4 years. This low orbit and the availability of high-quality data make it worthwhile to assess the contribution of GOCE GPS data to the recovery of both the static and time-variable gravity fields. We use the kinematic positions of the official GOCE precise science orbit (PSO) product to perform gravity field determination using the Celestial Mechanics Approach. The generated gravity field solutions reveal severe systematic errors centered along the geomagnetic equator. Their size is significantly coupled with the ionospheric density and thus generally increasing over the mission period. The systematic errors may be traced back to the kinematic positions of the PSO product and eventually to the ionosphere-free GPS carrier phase observations used for orbit determination. As they cannot be explained by the current higher order ionospheric correction model recommended by the IERS Conventions 2010, an empirical approach is presented by discarding GPS data affected by large ionospheric changes. Such a measure yields a strong reduction of the systematic errors along the geomagnetic equator in the gravity field recovery, and only marginally reduces the set of useable kinematic positions by at maximum 6 % for severe ionosphere conditions. Eventually it is shown that GOCE gravity field solutions based on kinematic positions have a limited sensitivity to the largest annual signal related to land hydrology.
Resumo:
This paper investigates the trends in inventory management in the automobile manufacturing industry during recessionary vs. non-recessionary periods. It is an empirical approach to testing the validity of the hypothesis that firms which carry leaner inventories perform better throughout the business cycle and are less affected by variability in the economy than less lean firms. The research also hopes to shed some light on how firm's financial statements can be manipulated through discretionary adjustments made by management pertaining to the valuation of inventories.
Resumo:
Con la finalidad de mejorar el manejo de suelos regadíos se propone, en reemplazo de los modelos teóricos, un método empírico de laboratorio que pretende ofrecer una visión más realista de los cambios cuanticualitativos de la solución edáfica por la acumulación de agua de riegos sucesivos de reposición. Para cada combinación específica agua-suelo se determina un Requerimiento de Lixiviación Funcional (RLF), definido como la inversa del número de veces, 1/n, que una cuota de riego (CR) -o su equivalente como la cantidad de agua por volumen de suelopodría ser aplicada consecutivamente hasta que fuere necesario lixiviar para limitar en la solución edáfica el nivel de salinidad total, o el de algún ión en particular. El valor de n es determinado experimentalmente por el análisis de los extractos de saturación del suelo, cuyas condiciones iniciales son conocidas, después de evaporar en horno de microondas un número creciente de CR. Este método fue aplicado regionalmente en 40 combinaciones de 5 suelos y 8 aguas de riego y sus RLF fueron comparados con los RL calculados como simple consecuencia de la concentración, sin considerar otros fenómenos posibles durante el proceso. Los resultados muestran que en algunas combinaciones de agua-suelo los RLF pueden diferir significativamente de los teóricos simples, no sólo con respecto a la evolución de la salinidad total (ya prevista en los modelos citados) sino también en la concentración de boro en solución. Una primera prueba de aplicación en cultivo del método propuesto se realizó en un ensayo en macetas, con clones de vid de un año, empleando la misma agua de riego en dos suelos de características funcionales distintas, según la apreciación previa del RLF en laboratorio. Los resultados obtenidos validaron los esperados de acuerdo con el procedimiento indicado. Complementariamente se analizaron las hojas y se calcularon regresiones entre los índices edáficos al final del ensayo y los contenidos foliares de B, Cl y Na, así como estos últimos entre ellos.
Resumo:
El presente artículo analiza la manera en que la participación en los entrenamientos de un conjunto de nadadores master (adultos) expresa tanto una disposición hacia la actividad corporal como hacia la sociabilidad con los pares. Asimismo, se muestra el modo en que tiene lugar el proceso de aprendizaje de una técnica corporal de una manera práctica y colectiva durante el entrenamiento y los sentidos específicos que adquieren las nociones de sufrimiento y sacrificio en dicho proceso. Para ello se utiliza una estrategia de abordaje empírico basado en técnicas cualitativas de producción y análisis de datos, realizando entrevistas y a la vez trabajo de campo etnográfico
Resumo:
El presente artículo analiza la manera en que la participación en los entrenamientos de un conjunto de nadadores master (adultos) expresa tanto una disposición hacia la actividad corporal como hacia la sociabilidad con los pares. Asimismo, se muestra el modo en que tiene lugar el proceso de aprendizaje de una técnica corporal de una manera práctica y colectiva durante el entrenamiento y los sentidos específicos que adquieren las nociones de sufrimiento y sacrificio en dicho proceso. Para ello se utiliza una estrategia de abordaje empírico basado en técnicas cualitativas de producción y análisis de datos, realizando entrevistas y a la vez trabajo de campo etnográfico
Resumo:
El presente artículo analiza la manera en que la participación en los entrenamientos de un conjunto de nadadores master (adultos) expresa tanto una disposición hacia la actividad corporal como hacia la sociabilidad con los pares. Asimismo, se muestra el modo en que tiene lugar el proceso de aprendizaje de una técnica corporal de una manera práctica y colectiva durante el entrenamiento y los sentidos específicos que adquieren las nociones de sufrimiento y sacrificio en dicho proceso. Para ello se utiliza una estrategia de abordaje empírico basado en técnicas cualitativas de producción y análisis de datos, realizando entrevistas y a la vez trabajo de campo etnográfico
Resumo:
The determination of the Stark broadening parameters of Sn ions is useful for astrophysicists interested in the determination of the density of electrons in stellar atmospheres. In this paper, we report on the calculated values of the Stark broadening parameters for 171 lines of Sn iii arising from 4d105sns (n= 6–9), 4d105snp (n= 5, 6), 4d105p2, 4d105snd (n= 5–7), 4d105s4f and 4d105s5g. Stark linewidths and line shifts are presented for an electron density of 1023 m−3 and temperatures T= 11 000–75 000 K. These have been calculated using a semi-empirical approach, with a set of wavefunctions obtained from Hartree–Fock relativistic calculations, including core polarization effects. The results obtained have been compared with available experimental data. These can be used to consider the influence of Stark broadening effects in A-type stellar atmospheres
Resumo:
In this paper, we report calculated values of the Stark widths and shifts for 72 spectral lines of Pb v. They were calculated using the Griem semi-empirical approach. A set of wavefunctions obtained from Hartree–Fock relativistic calculations including core polarization effects was used. Stark widths and shifts corresponding to lines arising from 5d9ns (n = 7, 8), 5d9 6p, 5d9 6d and 5d9 5f configurations of Pb v. Stark widths and shifts are presented for an electron density of 1017 cm−3 and temperatures T = 1.6–5.0 (104 K). The 2142.5, 2167.9 and 2278.6 Å lines of Pb v recently measured are included in our calculations. In this case, we have included for comparison calculations without core polarization effects. There is good agreement between our calculations and the above-cited experimental values.
Resumo:
El objetivo central de la presente investigación es profundizar la interpretación de los parámetros multifractales en el caso de las series de precipitación. Para ello se aborda, en primer lugar, la objetivación de la selección de la parte lineal de las curvas log-log que se encuentra en la base de los métodos de análisis fractal y multifractal; y, en segundo lugar, la generación de series artificiales de precipitación, con características similares a las reales, que permitan manipular los datos y evaluar la influencia de las modificaciones controladas de las series en los resultados de los parámetros multifractales derivados. En cuanto al problema de la selección de la parte lineal de las curvas log-log se desarrollaron dos métodos: a. Cambio de tendencia, que consiste en analizar el cambio de pendiente de las rectas ajustadas a dos subconjuntos consecutivos de los datos. b. Eliminación de casos, que analiza la mejora en el p-valor asociado al coeficiente de correlación al eliminar secuencialmente los puntos finales de la regresión. Los resultados obtenidos respecto a la regresión lineal establecen las siguientes conclusiones: - La metodología estadística de la regresión muestra la dificultad para encontrar el valor de la pendiente de tramos rectos de curvas en el procedimiento base del análisis fractal, indicando que la toma de decisión de los puntos a considerar redunda en diferencias significativas de las pendientes encontradas. - La utilización conjunta de los dos métodos propuestos ayuda a objetivar la toma de decisión sobre la parte lineal de las familias de curvas en el análisis fractal, pero su utilidad sigue dependiendo del número de datos de que se dispone y de las altas significaciones que se obtienen. En cuanto al significado empírico de los parámetros multifratales de la precipitación, se han generado 19 series de precipitación por medio de un simulador de datos diarios en cascada a partir de estimaciones anuales y mensuales, y en base a estadísticos reales de 4 estaciones meteorológicas españolas localizadas en un gradiente de NW a SE. Para todas las series generadas, se calculan los parámetros multifractales siguiendo la técnica de estimación de la DTM (Double Trace Moments - Momentos de Doble Traza) desarrollado por Lavalle et al. (1993) y se observan las modificaciones producidas. Los resultados obtenidos arrojaron las siguientes conclusiones: - La intermitencia, C1, aumenta al concentrar las precipitaciones en menos días, al hacerla más variable, o al incrementar su concentración en los días de máxima, mientras no se ve afectado por la modificación en la variabilidad del número de días de lluvia. - La multifractalidad, α, se ve incrementada con el número de días de lluvia y la variabilidad de la precipitación, tanto anual como mensual, así como también con la concentración de precipitación en el día de máxima. - La singularidad probable máxima, γs, se ve incrementada con la concentración de la lluvia en el día de precipitación máxima mensual y la variabilidad a nivel anual y mensual. - El grado no- conservativo, H, depende del número de los días de lluvia que aparezcan en la serie y secundariamente de la variabilidad general de la lluvia. - El índice de Hurst generalizado se halla muy ligado a la singularidad probable máxima. ABSTRACT The main objective of this research is to interpret the multifractal parameters in the case of precipitation series from an empirical approach. In order to do so the first proposed task was to objectify the selection of the linear part of the log-log curves that is a fundamental step of the fractal and multifractal analysis methods. A second task was to generate precipitation series, with real like features, which allow evaluating the influence of controlled series modifications on the values of the multifractal parameters estimated. Two methods are developed for selecting the linear part of the log-log curves in the fractal and multifractal analysis: A) Tendency change, which means analyzing the change in slope of the fitted lines to two consecutive subsets of data. B) Point elimination, which analyzes the improvement in the p- value associated to the coefficient of correlation when the final regression points are sequentially eliminated. The results indicate the following conclusions: - Statistical methodology of the regression shows the difficulty of finding the slope value of straight sections of curves in the base procedure of the fractal analysis, pointing that the decision on the points to be considered yield significant differences in slopes values. - The simultaneous use of the two proposed methods helps to objectify the decision about the lineal part of a family of curves in fractal analysis, but its usefulness are still depending on the number of data and the statistical significances obtained. Respect to the empiric meaning of the precipitation multifractal parameters, nineteen precipitation series were generated with a daily precipitation simulator derived from year and month estimations and considering statistics from actual data of four Spanish rain gauges located in a gradient from NW to SE. For all generated series the multifractal parameters were estimated following the technique DTM (Double Trace Moments) developed by Lavalle et al. (1993) and the variations produced considered. The results show the following conclusions: 1. The intermittency, C1, increases when precipitation is concentrating for fewer days, making it more variable, or when increasing its concentration on maximum monthly precipitation days, while it is not affected due to the modification in the variability in the number of days it rained. 2. Multifractility, α, increases with the number of rainy days and the variability of the precipitation, yearly as well as monthly, as well as with the concentration of precipitation on the maximum monthly precipitation day. 3. The maximum probable singularity, γs, increases with the concentration of rain on the day of the maximum monthly precipitation and the variability in yearly and monthly level. 4. The non-conservative degree, H’, depends on the number of rainy days that appear on the series and secondly on the general variability of the rain. 5. The general Hurst index is linked to the maximum probable singularity.
Resumo:
We have determined matrix elements for all experimental configurations of Ca III, including the 3s3p63d configuration. These values have been obtained using intermediate coupling (IC). For these IC calculations, we have used the standard method of least-squares fitting from the experimental energy levels, using the computer code developed by Robert Cowan. In this paper, using these matrix elements, we report the calculated values of the Ca III Stark widths and shifts for 148 spectral lines, of 56 Ca III spectral line transition probabilities and of eight radiative lifetimes of Ca III levels. The Stark widths and shifts, calculated using the Griem semi-empirical approach, correspond to the spectral lines of Ca III and are presented for an electron density of 1017 cm?3 and temperatures T = 1.0?10.0 (×104 K). The theoretical trends of the Stark broadening parameter versus the temperature are presented for transitions that are of astrophysical interest. There is good agreement between our calculations, for transition probabilities and radiative lifetimes, and the experimental values presented in the literature. We have not been able to find any values for the Stark parameters in the references.
Resumo:
In the present work we report theoretical Stark widths and shifts calculated using the Griem semi-empirical approach, corresponding to 237 spectral lines of MgIII. Data are presented for an electron density of 1017 cm?3 and temperatures T = 0.5?10.0 (104 K). The matrix elements used in these calculations have been determined from 23 configurations of MgIII: 2s22p6, 2s22p53p, 2s22p54p, 2s22p54f and 2s22p55f for even parity and 2s22p5ns (n = 3?6), 2s22p5nd (n = 3?9), 2s22p55g and 2s2p6np (n = 3?8) for odd parity. For the intermediate coupling (IC) calculations, we use the standard method of least-squares fitting from experimental energy levels by means of the Cowan computer code. Also, in order to test the matrix elements used in our calculations, we present calculated values of 70 transition probabilities of MgIII spectral lines and 14 calculated values of radiative lifetimes of MgIII levels. There is good agreement between our calculations and experimental radiative lifetimes. Spectral lines of MgIII are relevant in astrophysics and also play an important role in the spectral analysis of laboratory plasma. Theoretical trends of the Stark broadening parameter versus the temperature for relevant lines are presented. No values of Stark parameters can be found in the bibliography.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
La ecología no solamente ha puesto de manifiesto problemas ambientales, sino que ha confirmado la necesidad de una nueva armonía entre los propios seres humanos y de éstos con la naturaleza y con todos los seres que la habitan. Es necesario un nuevo contrato que determine nuestras relaciones con la Naturaleza (Serrs1), y una nueva Ética para nuestras vidas (Guattari2). La ética medioambiental nos ha dado una visión universal y supra-generacional de la gestión de la naturaleza y como consecuencia, una nueva forma de construir nuestra ‘segunda’ Naturaleza, que es la arquitectura. ¿Qué es lo esencial que esta nueva ética exige para la arquitectura? Este es un momento crucial para reconsiderar los objetivos de la arquitectura, porque lo ‘eco’ está produciendo grandes cambios. ¿Implica esta era post-ecológica una particular ética, es decir, referida a sus fines y medios? ¿Porqué, para qué, para quién, cómo debemos hacer la arquitectura de nuestro tiempo? Es momento de afrontar críticamente el discurso de la eco-arquitectura, e incluso de repensar los propios límites de la arquitectura. El desarrollo actual del conocimiento medioambiental es esencialmente técnico y utilitario, pero ¿es el reto solamente técnico?¿Es suficiente la suma de lo medioambiental-social-económico-cultural para definirla? ¿Hay claves que nos puedan dar la dimensión ética de esta aproximación técnica-empírica? ¿Sabemos lo que estamos haciendo cuando aplicamos este conocimiento? Y, sobre todo, ¿cuál es el sentido de lo que estamos haciendo? La tesis que se propone puede resumirse: De acuerdo con el actual conocimiento que tenemos de la Naturaleza, la Arquitectura de nuestro tiempo deber reconsiderar sus fines y medios, puesto que la ética medioambiental está definiendo nuevos objetivos. Para fundamentar y profundizar en esta afirmación la tesis analiza cómo son hoy día las relaciones entre Ética-Naturaleza-Arquitectura (Fig.1), lo que facilitará las claves de cuáles son los criterios éticos (en cuanto a fines y medios) que deben definir la arquitectura del tiempo de la ecología. ABSTRACT Ecology shows us not only environmental problems; it shows that we need a new balance and harmony between individuals, beings, communities and Nature. We need a new contract with Nature according to Serres576, and a new Ethics for our lives according to Guattari577. Environmental ethics have given us a universal and supra-generational vision of the management of our Nature and, as a consequence, a new way to construct our ‘second’ nature, which is architecture. What is essential for this new architecture that the new ethics demand? This is a critical moment to reconsider the object of architecture, because the ‘eco’ is making significant changes in it. Are there any specifically ethical concerns (ends and means) in the post-ecological era? Why, for what, for whom, how should we make architecture in our times? This is the time to approach the eco-architectural discourse critically and to question the current boundaries of architecture itself: Where is eco-architecture going? The current development of environmental knowledge is essentially technical and utilitarian, but it is its technical aspect the only challenge? Is the sum of environmental-social-economic aspects enough to define it? Are there any clues which can give an ethical sense to this technical-empirical approach? Do we know what we are doing when we apply this knowledge? And overall, what is the meaning of what we are doing? Exploring this subject, this thesis makes a statement: In accordance with the actual knowledge of Nature, Architecture of our time must reconsider its ends and means, since the environmental ethics is defining new objectives. To support that, the thesis analyzes what the relationships between Ethics –Nature- Architecture (Fig. 53) are like nowadays, this will provide the clues of which ethical criteria (ends and means) must architecture of an ecological era define.
Resumo:
Ontology-Based Data Access (OBDA) permite el acceso a diferentes tipos de fuentes de datos (tradicionalmente bases de datos) usando un modelo más abstracto proporcionado por una ontología. La reescritura de consultas (query rewriting) usa una ontología para reescribir una consulta en una consulta reescrita que puede ser evaluada en la fuente de datos. Las consultas reescritas recuperan las respuestas que están implicadas por la combinación de los datos explicitamente almacenados en la fuente de datos, la consulta original y la ontología. Al trabajar sólo sobre las queries, la reescritura de consultas permite OBDA sobre cualquier fuente de datos que puede ser consultada, independientemente de las posibilidades para modificarla. Sin embargo, producir y evaluar las consultas reescritas son procesos costosos que suelen volverse más complejos conforme la expresividad y tamaño de la ontología y las consultas aumentan. En esta tesis exploramos distintas optimizaciones que peuden ser realizadas tanto en el proceso de reescritura como en las consultas reescritas para mejorar la aplicabilidad de OBDA en contextos realistas. Nuestra contribución técnica principal es un sistema de reescritura de consultas que implementa las optimizaciones presentadas en esta tesis. Estas optimizaciones son las contribuciones principales de la tesis y se pueden agrupar en tres grupos diferentes: -optimizaciones que se pueden aplicar al considerar los predicados en la ontología que no están realmente mapeados con las fuentes de datos. -optimizaciones en ingeniería que se pueden aplicar al manejar el proceso de reescritura de consultas en una forma que permite reducir la carga computacional del proceso de generación de consultas reescritas. -optimizaciones que se pueden aplicar al considerar metainformación adicional acerca de las características de la ABox. En esta tesis proporcionamos demostraciones formales acerca de la corrección y completitud de las optimizaciones propuestas, y una evaluación empírica acerca del impacto de estas optimizaciones. Como contribución adicional, parte de este enfoque empírico, proponemos un banco de pruebas (benchmark) para la evaluación de los sistemas de reescritura de consultas. Adicionalmente, proporcionamos algunas directrices para la creación y expansión de esta clase de bancos de pruebas. ABSTRACT Ontology-Based Data Access (OBDA) allows accessing different kinds of data sources (traditionally databases) using a more abstract model provided by an ontology. Query rewriting uses such ontology to rewrite a query into a rewritten query that can be evaluated on the data source. The rewritten queries retrieve the answers that are entailed by the combination of the data explicitly stored in the data source, the original query and the ontology. However, producing and evaluating the rewritten queries are both costly processes that become generally more complex as the expressiveness and size of the ontology and queries increase. In this thesis we explore several optimisations that can be performed both in the rewriting process and in the rewritten queries to improve the applicability of OBDA in real contexts. Our main technical contribution is a query rewriting system that implements the optimisations presented in this thesis. These optimisations are the core contributions of the thesis and can be grouped into three different groups: -optimisations that can be applied when considering the predicates in the ontology that are actually mapped to the data sources. -engineering optimisations that can be applied by handling the process of query rewriting in a way that permits to reduce the computational load of the query generation process. -optimisations that can be applied when considering additional metainformation about the characteristics of the ABox. In this thesis we provide formal proofs for the correctness of the proposed optimisations, and an empirical evaluation about the impact of the optimisations. As an additional contribution, part of this empirical approach, we propose a benchmark for the evaluation of query rewriting systems. We also provide some guidelines for the creation and expansion of this kind of benchmarks.