229 resultados para Pruebas de oxidación
Resumo:
This research investigates the phenomenon of translationese in two monolingual comparable corpora of original and translated Catalan texts. Translationese has been defined as the dialect, sub-language or code of translated language. This study aims at giving empirical evidence of translation universals regardless the source language.Traditionally, research conducted on translation strategies has been mainly intuition-based. Computational Linguistics and Natural Language Processing techniques provide reliable information of lexical frequencies, morphological and syntactical distribution in corpora. Therefore, they have been applied to observe which translation strategies occur in these corpora.Results seem to prove the simplification, interference and explicitation hypotheses, whereas no sign of normalization has been detected with the methodology used.The data collected and the resources created for identifying lexical, morphological and syntactic patterns of translations can be useful for Translation Studies teachers, scholars and students: teachers will have more tools to help students avoid the reproduction of translationese patterns. Resources developed will help in detecting non-genuine or inadequate structures in the target language. This fact may imply an improvement in stylistic quality in translations. Translation professionals can also take advantage of these resources to improve their translation quality.
Resumo:
En este proyecto se estudia como generar un resumen de una colección de fotografías seleccionándolas automáticamente.Se construye un sistema capaz de permitir a un usuario subir una colección de imágenes a una plataforma web, que estás sean procesadas y posteriormente darle la opción de generar un resumen automático de su colección personal.Realizar la selección automática de imágenes es una tarea muy compleja debido a todos los factores a tener en cuenta a la hora de escogerlas. Eventos temporales, estética de las imágenes, personajes que deben o no aparecer en la selección son algunos de los factores importantes y que hay que tener muy en cuenta a la hora de realizar la selección automática.En este proyecto veremos cómo se ha construido el sistema, cómo se ha implementado el algoritmo de selección automática y las mejoras que se han llevado a cabo para mejorarlo en precisión y tiempo de ejecución.Para la evaluación del algoritmo implementado se han realizado pruebas con usuarios que nos han permitido detectar algunos de los problemas del algoritmo.Finalmente, se presentan las conclusiones y el trabajo futuro.
Resumo:
La introducción de dispositivos tecnológicos como PDAs, móviles o portátiles, en la educación ofrece nuevas oportunidades para el aprendizaje. El uso apropiado de estas herramientas abre la posibilidad a un abanico de escenarios educativos colaborativos que no serían posibles sin la tecnología. Sin embargo, uno de los problemas principales que dificulta la adopción de estos dispositivos en entornos educativos reales es el comprender cómo aplicarlos de forma adecuada y beneficiosa para cubrir los objetivos de aprendizaje esperados. Para ello es necesario establecer vínculos entre educadores y tecnólogos para que este tipo de escenarios se puedan llevar a cabo. Por un lado, los educadores tienen conocimientos sobre prácticas educativas y, por otro lado, los tecnólogos pueden aportar con sus conocimientos acerca de las oportunidades que las tecnologías ofrecen. 4SPPIces es un modelo conceptual que tiene como objetivo establecer este puente entre las dos comunidades. Concretamente, se trata de un modelo que propone 4 factores interrelacionados que deben considerarse en el diseño de experiencias educativas colaborativas que combinen actividades dentro y fuera del aula: (1) el método pedagógico (Pedagiocal Method), (2) los participantes (Participants), (3) el espacio (Space) y (4) el historial (History). El objetivo de este proyecto es desarrollar una aplicación web para que educadores y tecnólogos colaboren en el diseño de escenarios basados en este modelo. Concretamente, este trabajo presenta el proceso de desarrollo de la aplicación así como algunas pruebas con usuarios para analizar la usabilidad y utilidad del sistema.
Resumo:
El objetivo del proyecto es el desarrollo de una aplicación para la gestión de las demandas de servicios por parte de los ciudadanos de un municipio. Esta aplicación ha sido elaborada aplicando el modelo del ciclo de vida en cascada, realizando el análisis, diseño, implementación y pruebas del sistema desarrollado. El software obtenido es de tipo cliente/servidor y ha sido realizado con la tecnología orientada a objetos utilizando Java como lenguaje de programación, RMI como mecanismo para acceder a las operaciones del sistema de forma remota, y proporcionando a los usuarios una interfaz muy clara y amigable.
Resumo:
The educational system in Spain is undergoing a reorganization. At present, high-school graduates who want to enroll at a public university must take a set of examinations Pruebas de Aptitud para el Acceso a la Universidad (PAAU). A "new formula" (components, weights, type of exam,...) for university admission is been discussed. The present paper summarizes part of the research done by the author in her PhD. The context for this thesis is the evaluation of large-scale and complex systems of assessment. The main objectives were: to achieve a deep knowledge of the entire university admissions process in Spain, to discover the main sources of uncertainty and topromote empirical research in a continual improvement of the entire process. Focusing in the suitable statistical models and strategies which allow to high-light the imperfections of the system and reduce them, the paper develops, among other approaches, some applications of multilevel modeling.
Resumo:
El present TFC consisteix en fer un estudi dels sistemes de contrasenya gràfica a tall de presentació per donar a conèixer el seu funcionament. Finalment es desenvolupa una aplicació real del sistema de contrasenya per poder fer proves amb usuaris que serviran per obtenir dades objectives.
Resumo:
Remote sensing spatial, spectral, and temporal resolutions of images, acquired over a reasonably sized image extent, result in imagery that can be processed to represent land cover over large areas with an amount of spatial detail that is very attractive for monitoring, management, and scienti c activities. With Moore's Law alive and well, more and more parallelism is introduced into all computing platforms, at all levels of integration and programming to achieve higher performance and energy e ciency. Being the geometric calibration process one of the most time consuming processes when using remote sensing images, the aim of this work is to accelerate this process by taking advantage of new computing architectures and technologies, specially focusing in exploiting computation over shared memory multi-threading hardware. A parallel implementation of the most time consuming process in the remote sensing geometric correction has been implemented using OpenMP directives. This work compares the performance of the original serial binary versus the parallelized implementation, using several multi-threaded modern CPU architectures, discussing about the approach to nd the optimum hardware for a cost-e ective execution.
Resumo:
[ANGLÈS] This project introduces GNSS-SDR, an open source Global Navigation Satellite System software-defined receiver. The lack of reconfigurability of current commercial-of-the-shelf receivers and the advent of new radionavigation signals and systems make software receivers an appealing approach to design new architectures and signal processing algorithms. With the aim of exploring the full potential of this forthcoming scenario with a plurality of new signal structures and frequency bands available for positioning, this paper describes the software architecture design and provides details about its implementation, targeting a multiband, multisystem GNSS receiver. The result is a testbed for GNSS signal processing that allows any kind of customization, including interchangeability of signal sources, signal processing algorithms, interoperability with other systems, output formats, and the offering of interfaces to all the intermediate signals, parameters and variables. The source code release under the GNU General Public License (GPL) secures practical usability, inspection, and continuous improvement by the research community, allowing the discussion based on tangible code and the analysis of results obtained with real signals. The source code is complemented by a development ecosystem, consisting of a website (http://gnss-sdr.org), as well as a revision control system, instructions for users and developers, and communication tools. The project shows in detail the design of the initial blocks of the Signal Processing Plane of the receiver: signal conditioner, the acquisition block and the receiver channel, the project also extends the functionality of the acquisition and tracking modules of the GNSS-SDR receiver to track the new Galileo E1 signals available. Each section provides a theoretical analysis, implementation details of each block and subsequent testing to confirm the calculations with both synthetically generated signals and with real signals from satellites in space.
Resumo:
En esta memoria está reflejado todo el proceso de creación de un sistema de diàlogo persona-màquina basado en la idea de montar un punto de información turístico que transmita datos hablados al turista cuando éste se los pida. Se encontrará una breve introducción a estos sistemas, se explicarán las partes que se utilizan a la hora de construir uno, se verá el funcionamiento, las herramientas utilizadas durante la creación de nuestro proyecto, las pruebas realizadas para comprobar su correcto funcionamiento y para terminar también se comentará el resultado del estudio de viabilidad llevado a cabo.
Resumo:
El proyecto ha consistido en la implantación de una web para DBSS, con doble finalidad: una pública de información general sobre la misma y otra privada para la automatización de la entrada de datos de análisis de sangre y su posterior consulta por parte del paciente. Se han seleccionado las tecnologías adecuadas tanto para el diseño de la web como de las bases de datos asociadas. Se han programado la web y las bases de datos con éxito y se ha realizado la implementación del sistema, realizándose pruebas de funcionamiento internas y externas con éxito, comprobándose la bondad de la aplicación.
Resumo:
Estudio prospectivo observacional en el que se examinaron 44 pacientes previamente y al año de una prótesis total de rodilla. Se analizó el equilibrio mediante posturografía computerizada con Balance Master y su correlación con variables clínicas como la edad, IMC, dolor, balance articular, fuerza de cuádriceps e isquiotibiales y velocidad de marcha. Se encontraron cambios significativos en el equilibrio al año de la intervención que se concretaron en una mejoría de los resultados en las pruebas mCTSIB sobre superficie blanda y en el componente resumen de dicha prueba. Dichas mejorías se correlacionaron de forma negativa con la edad.
Resumo:
Con este trabajo revisamos los Modelos de niveles de las tasas de intereses en Chile. Además de los Modelos de Nivel tradicionales por Chan, Karoly, Longstaff y Lijadoras (1992) en EE. UU, y Parisi (1998) en Chile, por el método de Probabilidad Maximun permitimos que la volatilidad condicional también incluya los procesos inesperados de la información (el modelo GARCH ) y también que la volatilidad sea la función del nivel de la tasa de intereses (modelo TVP-NIVELE) como en Brenner, Harjes y la Crona (1996). Para esto usamos producciones de mercado de bonos de reconocimiento, en cambio las producciones mensuales medias de subasta PDBC, y la ampliación del tamaño y la frecuencia de la muestra a 4 producciones semanales con términos(condiciones) diferentes a la madurez: 1 año, 5 años, 10 años y 15 años. Los resultados principales del estudio pueden ser resumidos en esto: la volatilidad de los cambios inesperados de las tarifas depende positivamente del nivel de las tarifas, sobre todo en el modelo de TVP-NIVEL. Obtenemos pruebas de reversión tacañas, tal que los incrementos en las tasas de intereses no eran independientes, contrariamente a lo obtenido por Brenner. en EE. UU. Los modelos de NIVELES no son capaces de ajustar apropiadamente la volatilidad en comparación con un modelo GARCH (1,1), y finalmente, el modelo de TVP-NIVEL no vence los resultados del modelo GARCH (1,1)
Resumo:
Con este trabajo revisamos los Modelos de niveles de las tasas de intereses en Chile. Además de los Modelos de Nivel tradicionales por Chan, Karoly, Longstaff y Lijadoras (1992) en EE. UU, y Parisi (1998) en Chile, por el método de Probabilidad Maximun permitimos que la volatilidad condicional también incluya los procesos inesperados de la información (el modelo GARCH ) y también que la volatilidad sea la función del nivel de la tasa de intereses (modelo TVP-NIVELE) como en Brenner, Harjes y la Crona (1996). Para esto usamos producciones de mercado de bonos de reconocimiento, en cambio las producciones mensuales medias de subasta PDBC, y la ampliación del tamaño y la frecuencia de la muestra a 4 producciones semanales con términos(condiciones) diferentes a la madurez: 1 año, 5 años, 10 años y 15 años. Los resultados principales del estudio pueden ser resumidos en esto: la volatilidad de los cambios inesperados de las tarifas depende positivamente del nivel de las tarifas, sobre todo en el modelo de TVP-NIVEL. Obtenemos pruebas de reversión tacañas, tal que los incrementos en las tasas de intereses no eran independientes, contrariamente a lo obtenido por Brenner. en EE. UU. Los modelos de NIVELES no son capaces de ajustar apropiadamente la volatilidad en comparación con un modelo GARCH (1,1), y finalmente, el modelo de TVP-NIVEL no vence los resultados del modelo GARCH (1,1)
Resumo:
La aplicabilidad, repetibilidad y capacidad de diferentes métodos de análisis para discriminar muestras de aceites con diferentes grados de oxidación fueron evaluadas mediante aceites recogidos en procesos de fritura en continuo en varias empresas españolas. El objetivo de este trabajo fue encontrar métodos complementarios a la determinación del índice de acidez para el control de calidad rutinario de los aceites de fritura empleados en estas empresas. La optimización de la determinación de la constante dieléctrica conllevó una clara mejora de la variabilidad. No obstante, excepto en el caso del índice del ATB, el resto de métodos ensayados mostraron una menor variabilidad. La determinación del índice del ATB fue descartada ya que su sensibilidad fue insuficiente para discriminar entre aceites con diferente grado de oxidación. Los diferentes parámetros de alteración determinados en los aceites de fritura mostraron correlaciones significativas entre el índice de acidez y varios parámetros de oxidación diferentes, como la constante dieléctrica, el índice de p-anisidina, la absorción al ultravioleta y el contenido en polímeros de los triacilgliceroles. El índice de acidez solo evalúa la alteración hidrolítica, por lo que estos parámetros aportan información complementaria al evaluar la alteración termooxidativa.
Resumo:
A través de un diseño intrasujeto contrabalanceado, y sobre una base de doble ciego, se han estudiado, en relación al placebo, 1os efectos de una dosis única de 20 mg. de clobazam sobre la memoria, atencion y tiempo de reaccion medidos a traves de pruebas de laboratorio. Se ha utilizado una muestra de 9 sujetos, universitarios voluntarios, sin patologia orgánica conocida y con puntuaciones medias en 10s factores neuroticismo y extroversión del E.P.I. No se han encontrado diferencias significativas entre el clobazam y el placebo, salvo en la prueba de Tolouse-Pieron, la cua1 pone de manifiesto un efecto detrimental del clobazam. Por otra parte, aunque no estadisticamente significativas, se han apreciado dos tendencias. En primer lugar, el clobazam tiende a disminuir el rendimiento mnemico y de atencion y a incrementar la rapidez de respuesta en comparación con el placebo; en segundo lugar, el clobazam inhibe el efecto de practica en las aplicaciones sucesivas de las pruebas de atención y memoria y 10 potencia en el caso del tiempo de reaccion. Por todo ello se requiere una investigacion adicional con mas sujetos y un diseño experimental más complejo.