42 resultados para Alexandrine verse.

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es para mí un honor presentar esta publicación que recoge las comunicaciones presentadas en las IX Jornadas Iberoamericanas de Materiales de Construcción, que se han celebrado en Quito, Ecuador, los días 9 y 10 de agosto de 2011. En esta ocasión fue nuestra anfitriona la Escuela Politécnica Nacional, radicada en la bellísima ciudad de Quito, con el auspicio de diversas instancias ecuatorianas, tanto públicas como privadas. Por este motivo, mis primeras palabras quieren ser de agradecimiento por la hospitalidad brindada y la excelente organización local. Asimismo, quisiera reiterar mi gratitud a las entidades que todos los años apoyan decididamente la celebración de estas Jornadas y que este año no han faltado a la cita, como son: La Universidad Politécnica de Madrid (España), y muy especialmente su Escuela Técnica Superior de Ingenieros de Minas. La Asociación Española de Fabricantes de Áridos (ANEFA). La Cámara de la Piedra de la Provincia de Buenos Aires (Argentina) La empresa ERAL, Equipos y Procesos, S.L. Confiamos en que progresivamente otras entidades de nuestro entorno profesional, tanto académico como empresarial, se vayan vinculando de forma permanente a dicha organización. El lema que se eligió para este año fue: "Los materiales de construcción como pilares del desarrollo de la sociedad del siglo XXI". Creo que constituye toda una declaración de intenciones, además de enraizarse profundamente con la aún corta, pero ya intensa historia de nuestras Jornadas. Éstas nacen precisamente con el tercer milenio, y así todas las ediciones celebradas hasta ahora (Madrid 2001, La Habana 2002, San Juan 2003, Tegucigalpa 2004, Panamá 2007, Mar del Plata 2008, Valencia 2009 y Lima 2010) han tratado de poner un granito de arena (y nunca el símil fue más oportuno) para conseguir desarrollar la cooperación científica y técnica entre los países de Iberoamérica, Portugal y España, a través del intercambio de conocimiento y la transferencia tecnológica. Nuestras reuniones no han de verse únicamente como un punto de encuentro en el que presentar nuestros trabajos y experiencias, compartiéndolas con los colegas de otros lugares, tal vez lejanos en lo geográfico pero cercanos en la cultura y la sensibilidad. Con ser éste un fin no sólo loable, sino esencial a nuestra actividad, sería insuficiente para colmar nuestras expectativas. Las Jornadas han de ser un foro que constituya la semilla de futuras actuaciones conjuntas de todo tipo, académicas o empresariales, bilaterales o multilaterales, siempre con el objetivo de fomentar las relaciones basadas en compartir nuestros saberes y, en la medida de lo posible, la movilidad de nuestros técnicos, profesores o alumnos. Precisamente en un momento como el actual, en el que las incógnitas y graves preocupaciones que la crisis financiera mundial ha sembrado en nuestro ánimo no se han despejado todavía, es cuando este tipo de actividades son más necesarias, ya que es generalmente reconocido que para salir de esta situación se precisa mejorar la competitividad de nuestras economías y sólo a través de la innovación científica y tecnológica esto será posible, siempre que las políticas laborales y regulatorias lo apoyen. Los materiales de construcción constituyen un caso destacable en este sentido, ya que generalmente su producción está ligada a la extracción próxima de sus materias primas, dados los volúmenes que se mueven. Esto también es así muy frecuentemente con su utilización, de lo que es un ejemplo paradigmático la industria del hormigón (o concreto). Esto implica que pueden suponer un aporte fundamental en el desarrollo de las comunidades locales, gracias a la generación de tejido industrial y la consiguiente de puestos de trabajo, además de contribuir en calidad de componente imprescindible a la implantación de infraestructuras de todo tipo (residenciales, viarias o de transporte en general, entre otras) que son la base en la que otros sectores económicos han de apoyarse de modo ineludible. Por supuesto, este desarrollo ha de ser sostenible. Soy consciente de que ésta es ya una frase hecha, que por tanto ha perdido ya parte de su impacto, al utilizarse tantas veces con poco o ningún fundamento. Pero los que nos dedicamos a la ciencia y la tecnología sabemos de la importancia de su profundo significado, ya que el desarrollo o es sostenible o no será desarrollo, sino a lo sumo especulación para beneficio de unos pocos. Creo que el verdadero sentido del término está en que permita un desarrollo que beneficie de forma general a toda la sociedad, y no sólo a la presente, sino a la futura. Éste es el reto que los técnicos tenemos. Traducir este concepto en términos de aseguramiento de la calidad, seguridad e higiene en el trabajo, cuidado de los aspectos ambientales, I+D+i, cualificación académica y profesional y, por qué no, rentabilidad económica, entre otros aspectos fundamentales de nuestras actividades. Creo sinceramente que los trabajos que aquí se presentan suponen una contribución en este sentido, tanto por su calidad como por la diversidad de sus temáticas dentro del campo de los materiales de construcción. Espero y deseo que constituyan el germen de futuros encuentros y otras actividades de colaboración científica, tecnológica o educativa entre las entidades de nuestro entorno iberoamericano. José-Luis Parra y Alfaro Presidente del Comité Científico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las aves, al igual que el resto de animales monogástricos no precisan de un nivel de proteína bruta (PB) en el pienso sino de niveles adecuados de aminoácidos (AA) indispensables (Keshavarz and Austic, 2004; Junqueira et al., 2006; Novak et al., 2006). Sin embargo, en la práctica es frecuente que los nutricionistas soliciten niveles de PB en exceso de lo recomendado por el NRC (1999) o FEDNA (2008). De hecho, muchos nutricionistas formulan piensos para inicio de puesta en gallinas rubias con más de 18.5% PB, cuando niveles de 16.5% PB podrían ser adecuados. La razón de utilizar niveles altos de PB es desconocido pero podría estar relacionado con el mayor margen de seguridad lo que evitaría que un aminoácido (AA) indispensable no contemplado afecte al tamaño del huevo y a la productividad. Por contra, un nivel alto de PB aumenta el precio del pienso cuando el coste de las fuentes proteicas es elevado. La inclusión de grasa en el pienso mejora el tamaño del mismo y puede mejorar el peso vivo de las aves (FEDNA, 2008). Un problema de la industria productora de huevos es el relacionado con el peso inicial de las pollitas y su influencia sobre las diversas variables productivas. El PV de las aves podría verse afectado por las características del pienso. El objetivo de este ensayo fue estudiar la influencia del nivel proteico de piensos isonutritivos en relación con la EMAn y los aminoácidos indispensables, sobre la productividad en gallinas rubias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo propone cómo abordar un problema creciente en las escuelas técnicas como es la masificación de los cursos. Para ello describe una serie de parámetros de influencia representativos y aspectos operativos aplicables a la impartición de prácticas de laboratorio en asignaturas que contienen una base predominantemente tecnológica. Se pretende que los conceptos e ideas aportadas puedan servir como base para la implantación de nuevas prácticas o bien para la adaptación de prácticas ya existentes, intentado, en la medida de lo posible, una formulación conceptual que resulte aplicable a todas aquellas asignaturas o disciplinas en las que la aplicación práctica de los conceptos estudiados suponga una parte esencial de las enseñanzas y que tengan un alto número de alumnos. La utilización de las Tecnologías de la Información y la Comunicación (TIC) debe verse como una importante fuente de recursos de apoyo a la actividad docente de prácticas, ya que favorece el acceso individual de forma simultánea, pero en ningún caso debe suponer la sustitución de la actividad presencial del alumno en laboratorio, que es esencial para la consecución de los objetivos formativos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Generalmente los elementos estructurales metálicos de las aeronaves se ubican en zonas de carga crítica, en la mayoría de los casos, estos elementos son conformados mediante procesos de mecanizado. La vida a fatiga de estos componentes es una propiedad dinámica muy importante que puede verse intensamente afectada por las condiciones superficiales producidas durante el proceso de mecanizado. En este trabajo se lleva a cabo un primer estudio de la influencia de los parámetros de corte en la resistencia a la fatiga de piezas torneadas de la aleación de aluminio aeronáutico UNS A92024-T351. Se ha prestado especial atención a la relación con el acabado superficial evaluado a partir de la rugosidad media aritmética

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reutilización de las aguas residuales no es un concepto nuevo, en el año 1958 el Consejo Económico y Social de la Organización de las Naciones Unidas (ONU) enunció una nueva política, la sustitución de fuentes de recursos hídricos, con la declaración: «A menos que exista un exceso de agua, no deberá emplearse para cada uso agua de mayor calidad que la requerida por el mismo». En España en el periodo de sequía (1992-1995) se tuvo conciencia de la necesidad de hacer un mejor uso de los recursos hídricos existentes, empezando a verse claramente la necesidad de reutilizar las aguas residuales, sobre todo en las regiones con mayor déficit hídrico, como son la Costa Mediterránea, Baleares y Canarias. Al ser el agua el principal factor limitante para la agricultura en estas zonas, y el beneficio que su empleo reporta elevado, su uso debe ser esmerado y las posibilidades de reutilización maximizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de las masas de castaño, del cual es objeto nuestro trabajo, comprende 6266 Ha. dentro de una superficie comprendida aproximadamente entre 18000 y 20000 Has., zona eminentemente forestal donde se asocian y viven inagnificante el castaño, alcornoque y encina, juntamente con el olivo y en menos proporción la carcasca ( Qa),s quejigo y rebollo, en rodales aislados pino negral, y en los valles de los arroyos. y.los, álamo blanco con ejemplares de aliso. Hacemos antes que nada esta anotación de las principales especies de esta región, para hacer patente la importancia forestal de la misma y proponer estudios de esta sierra de Aracena, no solamente por lo que se refiere al castaño, especie de gran rendimiento como frutal, merced a la cual viven multitud de familias humildes, sino también y principalmente por lo que se infiere al alcornoque y encina, principales riquezas de dicha región, estimulando el cultivo de las citadas especies por medio de folletos y conferencias de divulgación social, para no solamente seguir extendiendo el área de dichas especies, sino lo que es aún tan importante, saber conservar las masas ya creadas; decimos esto, por la necesidad de que los vecinos de aquella comarca, adquieran los más indispensables conocimientos, para no verse privados con el tiempo de lo que es base de su situación social; las podas abusivas, con el único objeto de aprovechar la madera, el ramoneo y los desmoches de los castaños y en general la escasez de medidas preventivas contra la serie de enfermedades que creemos están aún en vias de desarrollo, a pesar de los danos que muchos anos causan en todos los frutales, hace que llamemos la atención sobre este particular, demostrando una vez más la incapacidad de los particulares para conservar los montes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las técnicas SAR (Synthetic Aperture Radar, radar de apertura sintética) e ISAR (Inverse SAR, SAR inverso) son sistemas radar coherentes de alta resolución, capaces de proporcionar un mapa de la sección radar del blanco en el dominio espacial de distancia y acimut. El objetivo de ambas técnicas radica en conseguir una resolución acimutal más fina generando una apertura sintética a partir del movimiento relativo entre radar y blanco. Los radares imagen complementan la labor de los sistemas ópticos e infrarrojos convencionales, especialmente en condiciones meteorológicas adversas. Los sistemas SAR e ISAR convencionales se diseñan para iluminar blancos en situaciones de línea de vista entre sensor y blanco. Por este motivo, presentan un menor rendimiento en escenarios complejos, como por ejemplo en bosques o entornos urbanos, donde los retornos multitrayecto se superponen a los ecos directos procedentes de los blancos. Se conocen como "imágenes fantasma", puesto que enmascaran a los verdaderos blancos y dan lugar a una calidad visual pobre, complicando en gran medida la detección del blanco. El problema de la mitigación del multitrayecto en imágenes radar adquiere una relevancia teórica y práctica. En esta Tesis Doctoral, se hace uso del concepto de inversión temporal (Time Reversal, TR) para mejorar la calidad visual de las imágenes SAR e ISAR eliminando las "imágenes fantasma" originadas por la propagación multitrayecto (algoritmos TR-SAR y TR-ISAR, respectivamente). No obstante, previamente a la aplicación de estas innovadoras técnicas de mitigación del multi-trayecto, es necesario resolver el problema geométrico asociado al multitrayecto. Centrando la atención en la mejora de las prestaciones de TR-ISAR, se implementan una serie de técnicas de procesado de señal avanzadas antes y después de la etapa basada en inversión temporal (el eje central de esta Tesis). Las primeras (técnicas de pre-procesado) están relacionadas con el multilook averaging, las transformadas tiempo-frecuencia y la transformada de Radon, mientras que las segundas (técnicas de post-procesado) se componen de un conjunto de algoritmos de superresolución. En pocas palabras, todas ellas pueden verse como un valor añadido al concepto de TR, en lugar de ser consideradas como técnicas independientes. En resumen, la utilización del algoritmo diseñado basado en inversión temporal, junto con algunas de las técnicas de procesado de señal propuestas, no deben obviarse si se desean obtener imágenes ISAR de gran calidad en escenarios con mucho multitrayecto. De hecho, las imágenes resultantes pueden ser útiles para posteriores esquemas de reconocimiento automático de blancos (Automatic Target Recognition, ATR). Como prueba de concepto, se hace uso tanto de datos simulados como experimentales obtenidos a partir de radares de alta resolución con el fin de verificar los métodos propuestos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los problemas de programación de tareas son muy importantes en el mundo actual. Se puede decir que se presentan en todos los fundamentos de la industria moderna, de ahí la importancia de que estos sean óptimos, de forma que se puedan ahorrar recursos que estén asociados al problema. La programación adecuada de trabajos en procesos de manufactura, constituye un importante problema que se plantea dentro de la producción en muchas empresas. El orden en que estos son procesados, no resulta indiferente, sino que determinará algún parámetro de interés, cuyos valores convendrá optimizar en la medida de lo posible. Así podrá verse afectado el coste total de ejecución de los trabajos, el tiempo necesario para concluirlos o el stock de productos en curso que será generado. Esto conduce de forma directa al problema de determinar cuál será el orden más adecuado para llevar a cabo los trabajos con vista a optimizar algunos de los anteriores parámetros u otros similares. Debido a las limitaciones de las técnicas de optimización convencionales, en la presente tesis se presenta una metaheurística basada en un Algoritmo Genético Simple (Simple Genetic Algorithm, SGA), para resolver problemas de programación de tipo flujo general (Job Shop Scheduling, JSS) y flujo regular (Flow Shop Scheduling, FSS), que están presentes en un taller con tecnología de mecanizado con el objetivo de optimizar varias medidas de desempeño en un plan de trabajo. La aportación principal de esta tesis, es un modelo matemático para medir el consumo de energía, como criterio para la optimización, de las máquinas que intervienen en la ejecución de un plan de trabajo. Se propone además, un método para mejorar el rendimiento en la búsqueda de las soluciones encontradas, por parte del Algoritmo Genético Simple, basado en el aprovechamiento del tiempo ocioso. ABSTRACT The scheduling problems are very important in today's world. It can be said to be present in all the basics of modern industry, hence the importance that these are optimal, so that they can save resources that are associated with the problem. The appropriate programming jobs in manufacturing processes is an important problem that arises in production in many companies. The order in which they are processed, it is immaterial, but shall determine a parameter of interest, whose values agree optimize the possible. This may be affected the total cost of execution of work, the time needed to complete them or the stock of work in progress that will be generated. This leads directly to the problem of determining what the most appropriate order to carry out the work in order to maximize some of the above parameters or other similar. Due to the limitations of conventional optimization techniques, in this work present a metaheuristic based on a Simple Genetic Algorithm (Simple Genetic Algorithm, SGA) to solve programming problems overall flow rate (Job Shop Scheduling, JSS) and regular flow (Flow Shop Scheduling, FSS), which are present in a workshop with machining technology in order to optimize various performance measures in a plan. The main contribution of this thesis is a mathematical model to measure the energy consumption as a criterion for the optimization of the machines involved in the implementation of a work plan. It also proposes a method to improve performance in finding the solutions, by the simple genetic algorithm, based on the use of idle time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The design and development of spoken interaction systems has been a thoroughly studied research scope for the last decades. The aim is to obtain systems with the ability to interact with human agents with a high degree of naturalness and efficiency, allowing them to carry out the actions they desire using speech, as it is the most natural means of communication between humans. To achieve that degree of naturalness, it is not enough to endow systems with the ability to accurately understand the user’s utterances and to properly react to them, even considering the information provided by the user in his or her previous interactions. The system has also to be aware of the evolution of the conditions under which the interaction takes place, in order to act the most coherent way as possible at each moment. Consequently, one of the most important features of the system is that it has to be context-aware. This context awareness of the system can be reflected in the modification of the behaviour of the system taking into account the current situation of the interaction. For instance, the system should decide which action it has to carry out, or the way to perform it, depending on the user that requests it, on the way that the user addresses the system, on the characteristics of the environment in which the interaction takes place, and so on. In other words, the system has to adapt its behaviour to these evolving elements of the interaction. Moreover that adaptation has to be carried out, if possible, in such a way that the user: i) does not perceive that the system has to make any additional effort, or to devote interaction time to perform tasks other than carrying out the requested actions, and ii) does not have to provide the system with any additional information to carry out the adaptation, which could imply a lesser efficiency of the interaction, since users should devote several interactions only to allow the system to become adapted. In the state-of-the-art spoken dialogue systems, researchers have proposed several disparate strategies to adapt the elements of the system to different conditions of the interaction (such as the acoustic characteristics of a specific user’s speech, the actions previously requested, and so on). Nevertheless, to our knowledge there is not any consensus on the procedures to carry out these adaptation. The approaches are to an extent unrelated from one another, in the sense that each one considers different pieces of information, and the treatment of that information is different taking into account the adaptation carried out. In this regard, the main contributions of this Thesis are the following ones: Definition of a contextualization framework. We propose a unified approach that can cover any strategy to adapt the behaviour of a dialogue system to the conditions of the interaction (i.e. the context). In our theoretical definition of the contextualization framework we consider the system’s context as all the sources of variability present at any time of the interaction, either those ones related to the environment in which the interaction takes place, or to the human agent that addresses the system at each moment. Our proposal relies on three aspects that any contextualization approach should fulfill: plasticity (i.e. the system has to be able to modify its behaviour in the most proactive way taking into account the conditions under which the interaction takes place), adaptivity (i.e. the system has also to be able to consider the most appropriate sources of information at each moment, both environmental and user- and dialogue-dependent, to effectively adapt to the conditions aforementioned), and transparency (i.e. the system has to carry out the contextualizaton-related tasks in such a way that the user neither perceives them nor has to do any effort in providing the system with any information that it needs to perform that contextualization). Additionally, we could include a generality aspect to our proposed framework: the main features of the framework should be easy to adopt in any dialogue system, regardless of the solution proposed to manage the dialogue. Once we define the theoretical basis of our contextualization framework, we propose two cases of study on its application in a spoken dialogue system. We focus on two aspects of the interaction: the contextualization of the speech recognition models, and the incorporation of user-specific information into the dialogue flow. One of the modules of a dialogue system that is more prone to be contextualized is the speech recognition system. This module makes use of several models to emit a recognition hypothesis from the user’s speech signal. Generally speaking, a recognition system considers two types of models: an acoustic one (that models each of the phonemes that the recognition system has to consider) and a linguistic one (that models the sequences of words that make sense for the system). In this work we contextualize the language model of the recognition system in such a way that it takes into account the information provided by the user in both his or her current utterance and in the previous ones. These utterances convey information useful to help the system in the recognition of the next utterance. The contextualization approach that we propose consists of a dynamic adaptation of the language model that is used by the recognition system. We carry out this adaptation by means of a linear interpolation between several models. Instead of training the best interpolation weights, we make them dependent on the conditions of the dialogue. In our approach, the system itself will obtain these weights as a function of the reliability of the different elements of information available, such as the semantic concepts extracted from the user’s utterance, the actions that he or she wants to carry out, the information provided in the previous interactions, and so on. One of the aspects more frequently addressed in Human-Computer Interaction research is the inclusion of user specific characteristics into the information structures managed by the system. The idea is to take into account the features that make each user different from the others in order to offer to each particular user different services (or the same service, but in a different way). We could consider this approach as a user-dependent contextualization of the system. In our work we propose the definition of a user model that contains all the information of each user that could be potentially useful to the system at a given moment of the interaction. In particular we will analyze the actions that each user carries out throughout his or her interaction. The objective is to determine which of these actions become the preferences of that user. We represent the specific information of each user as a feature vector. Each of the characteristics that the system will take into account has a confidence score associated. With these elements, we propose a probabilistic definition of a user preference, as the action whose likelihood of being addressed by the user is greater than the one for the rest of actions. To include the user dependent information into the dialogue flow, we modify the information structures on which the dialogue manager relies to retrieve information that could be needed to solve the actions addressed by the user. Usage preferences become another source of contextual information that will be considered by the system towards a more efficient interaction (since the new information source will help to decrease the need of the system to ask users for additional information, thus reducing the number of turns needed to carry out a specific action). To test the benefits of the contextualization framework that we propose, we carry out an evaluation of the two strategies aforementioned. We gather several performance metrics, both objective and subjective, that allow us to compare the improvements of a contextualized system against the baseline one. We will also gather the user’s opinions as regards their perceptions on the behaviour of the system, and its degree of adaptation to the specific features of each interaction. Resumen El diseño y el desarrollo de sistemas de interacción hablada ha sido objeto de profundo estudio durante las pasadas décadas. El propósito es la consecución de sistemas con la capacidad de interactuar con agentes humanos con un alto grado de eficiencia y naturalidad. De esta manera, los usuarios pueden desempeñar las tareas que deseen empleando la voz, que es el medio de comunicación más natural para los humanos. A fin de alcanzar el grado de naturalidad deseado, no basta con dotar a los sistemas de la abilidad de comprender las intervenciones de los usuarios y reaccionar a ellas de manera apropiada (teniendo en consideración, incluso, la información proporcionada en previas interacciones). Adicionalmente, el sistema ha de ser consciente de las condiciones bajo las cuales transcurre la interacción, así como de la evolución de las mismas, de tal manera que pueda actuar de la manera más coherente en cada instante de la interacción. En consecuencia, una de las características primordiales del sistema es que debe ser sensible al contexto. Esta capacidad del sistema de conocer y emplear el contexto de la interacción puede verse reflejada en la modificación de su comportamiento debida a las características actuales de la interacción. Por ejemplo, el sistema debería decidir cuál es la acción más apropiada, o la mejor manera de llevarla a término, dependiendo del usuario que la solicita, del modo en el que lo hace, etcétera. En otras palabras, el sistema ha de adaptar su comportamiento a tales elementos mutables (o dinámicos) de la interacción. Dos características adicionales son requeridas a dicha adaptación: i) el usuario no ha de percibir que el sistema dedica recursos (temporales o computacionales) a realizar tareas distintas a las que aquél le solicita, y ii) el usuario no ha de dedicar esfuerzo alguno a proporcionar al sistema información adicional para llevar a cabo la interacción. Esto último implicaría una menor eficiencia de la interacción, puesto que los usuarios deberían dedicar parte de la misma a proporcionar información al sistema para su adaptación, sin ningún beneficio inmediato. En los sistemas de diálogo hablado propuestos en la literatura, se han propuesto diferentes estrategias para llevar a cabo la adaptación de los elementos del sistema a las diferentes condiciones de la interacción (tales como las características acústicas del habla de un usuario particular, o a las acciones a las que se ha referido con anterioridad). Sin embargo, no existe una estrategia fija para proceder a dicha adaptación, sino que las mismas no suelen guardar una relación entre sí. En este sentido, cada una de ellas tiene en cuenta distintas fuentes de información, la cual es tratada de manera diferente en función de las características de la adaptación buscada. Teniendo en cuenta lo anterior, las contribuciones principales de esta Tesis son las siguientes: Definición de un marco de contextualización. Proponemos un criterio unificador que pueda cubrir cualquier estrategia de adaptación del comportamiento de un sistema de diálogo a las condiciones de la interacción (esto es, el contexto de la misma). En nuestra definición teórica del marco de contextualización consideramos el contexto del sistema como todas aquellas fuentes de variabilidad presentes en cualquier instante de la interacción, ya estén relacionadas con el entorno en el que tiene lugar la interacción, ya dependan del agente humano que se dirige al sistema en cada momento. Nuestra propuesta se basa en tres aspectos que cualquier estrategia de contextualización debería cumplir: plasticidad (es decir, el sistema ha de ser capaz de modificar su comportamiento de la manera más proactiva posible, teniendo en cuenta las condiciones en las que tiene lugar la interacción), adaptabilidad (esto es, el sistema ha de ser capaz de considerar la información oportuna en cada instante, ya dependa del entorno o del usuario, de tal manera que adecúe su comportamiento de manera eficaz a las condiciones mencionadas), y transparencia (que implica que el sistema ha de desarrollar las tareas relacionadas con la contextualización de tal manera que el usuario no perciba la manera en que dichas tareas se llevan a cabo, ni tampoco deba proporcionar al sistema con información adicional alguna). De manera adicional, incluiremos en el marco propuesto el aspecto de la generalidad: las características del marco de contextualización han de ser portables a cualquier sistema de diálogo, con independencia de la solución propuesta en los mismos para gestionar el diálogo. Una vez hemos definido las características de alto nivel de nuestro marco de contextualización, proponemos dos estrategias de aplicación del mismo a un sistema de diálogo hablado. Nos centraremos en dos aspectos de la interacción a adaptar: los modelos empleados en el reconocimiento de habla, y la incorporación de información específica de cada usuario en el flujo de diálogo. Uno de los módulos de un sistema de diálogo más susceptible de ser contextualizado es el sistema de reconocimiento de habla. Este módulo hace uso de varios modelos para generar una hipótesis de reconocimiento a partir de la señal de habla. En general, un sistema de reconocimiento emplea dos tipos de modelos: uno acústico (que modela cada uno de los fonemas considerados por el reconocedor) y uno lingüístico (que modela las secuencias de palabras que tienen sentido desde el punto de vista de la interacción). En este trabajo contextualizamos el modelo lingüístico del reconocedor de habla, de tal manera que tenga en cuenta la información proporcionada por el usuario, tanto en su intervención actual como en las previas. Estas intervenciones contienen información (semántica y/o discursiva) que puede contribuir a un mejor reconocimiento de las subsiguientes intervenciones del usuario. La estrategia de contextualización propuesta consiste en una adaptación dinámica del modelo de lenguaje empleado en el reconocedor de habla. Dicha adaptación se lleva a cabo mediante una interpolación lineal entre diferentes modelos. En lugar de entrenar los mejores pesos de interpolación, proponemos hacer los mismos dependientes de las condiciones actuales de cada diálogo. El propio sistema obtendrá estos pesos como función de la disponibilidad y relevancia de las diferentes fuentes de información disponibles, tales como los conceptos semánticos extraídos a partir de la intervención del usuario, o las acciones que el mismo desea ejecutar. Uno de los aspectos más comúnmente analizados en la investigación de la Interacción Persona-Máquina es la inclusión de las características específicas de cada usuario en las estructuras de información empleadas por el sistema. El objetivo es tener en cuenta los aspectos que diferencian a cada usuario, de tal manera que el sistema pueda ofrecer a cada uno de ellos el servicio más apropiado (o un mismo servicio, pero de la manera más adecuada a cada usuario). Podemos considerar esta estrategia como una contextualización dependiente del usuario. En este trabajo proponemos la definición de un modelo de usuario que contenga toda la información relativa a cada usuario, que pueda ser potencialmente utilizada por el sistema en un momento determinado de la interacción. En particular, analizaremos aquellas acciones que cada usuario decide ejecutar a lo largo de sus diálogos con el sistema. Nuestro objetivo es determinar cuáles de dichas acciones se convierten en las preferencias de cada usuario. La información de cada usuario quedará representada mediante un vector de características, cada una de las cuales tendrá asociado un valor de confianza. Con ambos elementos proponemos una definición probabilística de una preferencia de uso, como aquella acción cuya verosimilitud es mayor que la del resto de acciones solicitadas por el usuario. A fin de incluir la información dependiente de usuario en el flujo de diálogo, llevamos a cabo una modificación de las estructuras de información en las que se apoya el gestor de diálogo para recuperar información necesaria para resolver ciertos diálogos. En dicha modificación las preferencias de cada usuario pasarán a ser una fuente adicional de información contextual, que será tenida en cuenta por el sistema en aras de una interacción más eficiente (puesto que la nueva fuente de información contribuirá a reducir la necesidad del sistema de solicitar al usuario información adicional, dando lugar en consecuencia a una reducción del número de intervenciones necesarias para llevar a cabo una acción determinada). Para determinar los beneficios de las aplicaciones del marco de contextualización propuesto, llevamos a cabo una evaluación de un sistema de diálogo que incluye las estrategias mencionadas. Hemos recogido diversas métricas, tanto objetivas como subjetivas, que nos permiten determinar las mejoras aportadas por un sistema contextualizado en comparación con el sistema sin contextualizar. De igual manera, hemos recogido las opiniones de los participantes en la evaluación acerca de su percepción del comportamiento del sistema, y de su capacidad de adaptación a las condiciones concretas de cada interacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enriquecer el conocimiento sobre la Radiación Solar (RS) a nivel del suelo es de gran interés para diferentes aplicaciones meteorológicas entre ellas el área de las energías renovables como la energía solar. La interpolación de observaciones de RS por estaciones en tierra, los sensores remotos y la ejecución de distintos modelos son algunas de las formas que existen para obtener valores de RS con continuidad espacial en el terreno. Aunque se sabe que los mejores valores de RS en la superficie son los observados por estaciones terrestres, este tipo de observaciones presentan como desventaja una baja distribución geográfica. En este trabajo se propone el uso de estaciones meteorológicas de voluntarios no oficiales (Meteoclimatic, Weather, Underground, Weather, Link, CWOP) las cuales son fuentes de Información Geográfica por Voluntarios (Volunteered Geographic Information - VGI) que proporcionan sus observaciones RS en tiempo real a través de Internet como una alternativa para densificar la disponibilidad y distribución espacial de las observaciones por RS a nivel superficial. En este trabajo se desarrolla una metodología que contempla tanto la recolección de las observaciones, como su alineación temporal para finalizar con el análisis de los datos indicando sus valores de incertidumbre a medida que se integra en una Base de Datos que integra las distintas fuentes de datos utilizadas. Los resultados indican que el error RS relativo entre las estimaciones por satélite y las observaciones en superficie no es constante a lo largo del día y por tanto debe analizarse mediante agrupaciones. También se ha observado que dicho error puede verse afectado por la localización de la estación meteorológica, en concreto se ha apreciado una relación directa entre el error relativo y la diferencia entre las longitudes de la ubicación de las estaciones superficiales en tierra y el satélite. Ésta misma comparación siguiere que es correcto considerar el uso de Meteoclimatic (la red Voluntaria tomada como piloto) como una fuente de observaciones de la RS importante al presentar un error esperado y aportar aproximadamente 10 veces más estaciones meteorológicas RS que la red oficial en España aportando un buen precedente para la integración de más redes voluntarias en la densificación de observaciones de la RS con estaciones en tierra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto los robots autónomos móviles como los robots móviles remotamente operados se utilizan con éxito actualmente en un gran número de ámbitos, algunos de los cuales son tan dispares como la limpieza en el hogar, movimiento de productos en almacenes o la exploración espacial. Sin embargo, es difícil garantizar la ausencia de defectos en los programas que controlan dichos dispositivos, al igual que ocurre en otros sectores informáticos. Existen diferentes alternativas para medir la calidad de un sistema en el desempeño de las funciones para las que fue diseñado, siendo una de ellas la fiabilidad. En el caso de la mayoría de los sistemas físicos se detecta una degradación en la fiabilidad a medida que el sistema envejece. Esto es debido generalmente a efectos de desgaste. En el caso de los sistemas software esto no suele ocurrir, ya que los defectos que existen en ellos generalmente no han sido adquiridos con el paso del tiempo, sino que han sido insertados en el proceso de desarrollo de los mismos. Si dentro del proceso de generación de un sistema software se focaliza la atención en la etapa de codificación, podría plantearse un estudio que tratara de determinar la fiabilidad de distintos algoritmos, válidos para desempeñar el mismo cometido, según los posibles defectos que pudieran introducir los programadores. Este estudio básico podría tener diferentes aplicaciones, como por ejemplo elegir el algoritmo menos sensible a los defectos, para el desarrollo de un sistema crítico o establecer procedimientos de verificación y validación, más exigentes, si existe la necesidad de utilizar un algoritmo que tenga una alta sensibilidad a los defectos. En el presente trabajo de investigación se ha estudiado la influencia que tienen determinados tipos de defectos software en la fiabilidad de tres controladores de velocidad multivariable (PID, Fuzzy y LQR) al actuar en un robot móvil específico. La hipótesis planteada es que los controladores estudiados ofrecen distinta fiabilidad al verse afectados por similares patrones de defectos, lo cual ha sido confirmado por los resultados obtenidos. Desde el punto de vista de la planificación experimental, en primer lugar se realizaron los ensayos necesarios para determinar si los controladores de una misma familia (PID, Fuzzy o LQR) ofrecían una fiabilidad similar, bajo las mismas condiciones experimentales. Una vez confirmado este extremo, se eligió de forma aleatoria un representante de clase de cada familia de controladores, para efectuar una batería de pruebas más exhaustiva, con el objeto de obtener datos que permitieran comparar de una forma más completa la fiabilidad de los controladores bajo estudio. Ante la imposibilidad de realizar un elevado número de pruebas con un robot real, así como para evitar daños en un dispositivo que generalmente tiene un coste significativo, ha sido necesario construir un simulador multicomputador del robot. Dicho simulador ha sido utilizado tanto en las actividades de obtención de controladores bien ajustados, como en la realización de los diferentes ensayos necesarios para el experimento de fiabilidad. ABSTRACT Autonomous mobile robots and remotely operated robots are used successfully in very diverse scenarios, such as home cleaning, movement of goods in warehouses or space exploration. However, it is difficult to ensure the absence of defects in programs controlling these devices, as it happens in most computer sectors. There exist different quality measures of a system when performing the functions for which it was designed, among them, reliability. For most physical systems, a degradation occurs as the system ages. This is generally due to the wear effect. In software systems, this does not usually happen, and defects often come from system development and not from use. Let us assume that we focus on the coding stage in the software development pro¬cess. We could consider a study to find out the reliability of different and equally valid algorithms, taking into account any flaws that programmers may introduce. This basic study may have several applications, such as choosing the algorithm less sensitive to pro¬gramming defects for the development of a critical system. We could also establish more demanding procedures for verification and validation if we need an algorithm with high sensitivity to programming defects. In this thesis, we studied the influence of certain types of software defects in the reliability of three multivariable speed controllers (PID, Fuzzy and LQR) designed to work in a specific mobile robot. The hypothesis is that similar defect patterns affect differently the reliability of controllers, and it has been confirmed by the results. From the viewpoint of experimental planning, we followed these steps. First, we conducted the necessary test to determine if controllers of the same family (PID, Fuzzy or LQR) offered a similar reliability under the same experimental conditions. Then, a class representative was chosen at ramdom within each controller family to perform a more comprehensive test set, with the purpose of getting data to compare more extensively the reliability of the controllers under study. The impossibility of performing a large number of tests with a real robot and the need to prevent the damage of a device with a significant cost, lead us to construct a multicomputer robot simulator. This simulator has been used to obtain well adjusted controllers and to carry out the required reliability experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesina es el resultado del esfuerzo personal y particular de una persona pero integrado en un proyecto colectivo de estudio, discusión, experimentación y verificación de hipótesis que desde hace varios años venimos madurando, y cuyos frutos comienzan a recogerse. Precisamente la mayor parte de las tesinas que se presentan bajo el subtítulo colectivo de: “ESTUDIO DIFERENCIAL DE APTITUDES DE ESTUDIANTES DE PROFESORADO DE EDUCACIÓN FÍSICA”, tienen sus raíces en los Seminarios de Psicopedagogía, que desde hace cuatro años se desarrollan bajo el titulo genérico de "Tareas y aptitudes del profesional de Educación Física". Allí pudimos comprobar lo difícil que es el realizar un análisis de las tareas que realiza y debe realizar un profesional de la E.F. Como campos de nuestro interés fueron: - El estudio de las tareas que caracterizan la función del profesor de Educación Física. - La descripción y el análisis de las aptitudes convenientes para el desenvolvimiento en dichas tareas. - La critica de los procesos de desarrollo de las capacidades y los sistemas de formación. A través de mucho tiempo de búsqueda y de clarificación de ideas, en la autoafirmación y en el aprendizaje de las técnicas de estudio, de discusión, que nos proporcionaron, aparte de conceptos, el saber respetar el parlamento de los demás, y de esta manera, saber sentar premisas de estudio y experimentación. Y de esta labor comunitaria, entre alumnos y profesores. No llega a más., porque se queda en la consabida aportación investigadora de los españoles, en el caso típico de una tesis doctoral, que viene a ser como la aportación personal a la sabiduría nacional, que generalmente suele ser mejor que lo que hay, y en algunas ocasiones igual hasta es el único, pues, es muy difícil sustraer de las necesidades cotidianas el tiempo preciso para hacer aportaciones a la Ciencia Española. Esta tesina además de servir a su elaborador a conseguir un título que le dote de la debida titulación académica, es también una aportación gratuita con el único objetivo que valga para señalar algún rumbo más claro, que el existente. Nuestro problema se centra en la pregunta ¿Qué es, cómo debe ser y cómo se puede ser o llegar a ser, un buen profesor de E.F.? Aunque estos primeros trabajos están cargados de una cierta dosis de emoción. No obstante se ha hecho el proyecto sobre el análisis y descripción de aptitudes y se ha llevado a cabo tomando diversas muestras de estudiantes de Educación Física. Aunque somos conscientes que el estudio hubiese sido más válido si se hubiese efectuado con profesores de E.F. en activo, pero de no haber podido realizarlo, y con la idea de que en un futuro no muy lejano nosotros seremos profesionales de la Educación Física, nos anticipamos, con la confianza de la poca variabilidad de las aptitudes, de cada uno. Los planteamientos de los estudios, en conjunto se han formulado para constatad diferencias, tratando de desarrollar todos los puntos de vista que se pueda sobre el rol del Profesor. Mi estudio exploratorio entra a formar parte de eso tan debatido y estudiado, como es por una parte el rendimiento, que es considerado por la mayoría como un tema crítico de suma importancia. Y se ha buscado la otra variable, no menos debatida y hasta baqueteada aptitud superior, aptitud mental, o de cuantas formas se la ha dado en llamar. Como puede verse, es obvio, que sin la colaboración de nuestros compañeros, únicos protagonistas de esta buena o peor obra, pero que ellos han querido contribuir a ella con todo su tesón y entusiasmo. Y como reflejo de su paso por este trabajo ahí quedan esos números y letras que forman parte de ellos mismos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, la investigación se ha preocupado crecientemente sobre la anticipación visual de los deportistas en deportes de intercepción (e.g.,Van der Kamp, Rivas, Van Doorn y Savelsbergh, 2008). Estos trabajos han mostrado de forma consistente que el rendimiento de los deportistas está regulado por tres factores que interactúan. El primero, la estructura y la dinámica de la tarea estipulan los márgenes espaciales y temporales en los que actuar (e.g., Vilar, Araújo, Davids, Correia y Esteves, 2012). También, cómo los deportistas extraen y utilizan la información disponible del entorno sobre la que guiar su conducta (e.g., Savelsbergh, Williams, Van der Kamp y Ward, 2002). Y el tercero se refiere a su anticipación y tiempos de movimiento (e.g., Dicks, Davids y Button, 2010b). El objetivo del estudio fue evaluar la evolución de las estrategias visuales y motrices cuando se manipulan las demandas espacio-temporales así como la fiabilidad de la información. Para ello, se examinaron doce porteros expertos de fútbol sala in situ mientras recibían tiros de penalti en cuatro condiciones que diferían en cuanto a distancia de disparo (penaltis desde 6 m vs. dobles penaltis desde 10m) y a la estrategia de engaño del oponente (tiros normales vs. tiros conengaño). Se grabó el rendimiento y sus tiempos de movimiento utilizando una cámara de alta velocidad (120fps) y se registró su mirada mientras intentaban interceptar los disparos empleando el sistema portátil de seguimiento de la mirada ASL MobileEye. Se analizaron las medidas derivadas de los análisis de los vídeos a través de una prueba de ANOVA (Friedman o Medidas Repetidas) y se hizo un análisis discriminante para extraer las variables del rendimiento: gol vs. parada. Los porteros pararon más tiros (61% vs. 23%), obtuvieron valores de rendimiento más altos ( 4.1 vs. 2.1 sobre 5), y acertaron el lado más frecuentemente (97% vs. 53%) en los tiros de dobles penaltis comparado con los tiros de penalti. El engaño tuvo un efecto nulo en el rendimiento de los porteros, excepto para el número de correcciones entre dobles penaltis, donde corrigieron su movimiento inicial de parada hacia el otro lado en un 23% de los tiros con engaño por un 12% en los tiros normales. Los participantes iniciaron su acción de parada antes en los penaltis comparado con los dobles penalti, no encontrándose ningún efecto de la estrategia de engaño en los tiempos de movimiento. Esas diferencias entre distancias fueron notables en las medidas del tronco y de los pies (339 y 330 ms respectivamente), los cuales pasaron de valores negativos(movimiento antes del golpeo) en los penaltis, a valores positivos (movimiento después del golpeo) en los dobles penaltis. Sin embargo, los tiempos de los brazos se mantuvieron cercanos a los 200 ms en ambos tiros de penaltis y de dobles penaltis (23 ms de diferencia media). El análisis de los patrones visuales reveló una remarcable variabilidad, tanto entre participantes como intra participantes, aunque emergió un patrón general. Los porteros tendieron a mirar hacia el cuerpo del tirador (sobre todo la cabeza) durante el comienzo de la carrera de aproximación y después, según avanzaba el jugador hacia el balón apartaban su mirada del jugador y la dirigían hacia el balón (o zona entre el balón y la pierna de apoyo). Los porteros miraron durante más tiempo al cuerpo y cambiaron de foco hacia el balón más tarde en los tiros de penalti con respecto a los tiros de doble penal ti. Así pues, este cambio de foco visual corporal hacia el balón pareció estar relacionado con los determinantes espacio-temporales (i.e., 6 vs. 10 m] más que con las estrategias de engaño del tirador o con el tiempo de inicio de los participantes. Tanto los tiros de penalti (6 m] como los de doble penalti (10 m) fueron menos veloces en los tiros con engaño en comparación con los tiros normales .. El análisis discriminante encontró que la distancia horizontal al centro (balón situado más cerca del portero) fue crucial para parar el doble penalti, siendo menos importante para el caso de los penaltis; viceversa sucedió con el tiempo de visión en los primeros momentos de vuelo del balón, resultando más predictivo de la parada en el caso de los penaltis que el de los dobles penaltis. Los resultados sugieren el uso de diferentes estrategias viso-motoras en función de la distancia de disparo. En los tiros de doble penalti (desde 10 m], los participantes esperaron a ver la información del balón (obteniendo información del golpeo y del vuelo) para coordinar sus acciones en función de esa información más fiable (Diaz, Fajen y Phillips, 2012). Así, comenzaron su acción de parada sobre los 200 ms después del golpeo, lo que les permitió moverse de forma constante hacia el mismo lado del balón, pero les dejó sin tiempo suficiente para alcanzar el balón en los casos en los que éste fue relativamente ajustado al palo. Por el contrario, en los tiros de penalti [desde 6 m], los porteros generalmente empezaron a moverse antes del golpeo, para aumentar su margen temporal de acción y así aumentar sus opciones de llegar a los balones escorados(en caso de haber acertado el lado). Esto les obligó a basar sus acciones en información temprana menos predictiva [más tiempo de visión en el cuerpo y cambio de foco más tardío) lo que les provocó un detrimento en el rendimiento. Por ejemplo, en los tiros de penalti los porteros acertaron el lado en sólo en la mitad de los casos. Así, en los penaltis los porteros se movieron hacia nno de los lados (i.e., derecha o izquierda) independientemente de la dirección final de tiro, mientras que en los dobles se encontró una relación de dependencia entre la trayectoria de los tiros y la dirección de la acción de parada (Kuhn, 1988). Por otra parte, los tiempos de inicio del movimiento del tronco y de los pies en los dobles fueron relativamente similares, mientras que en los tiros de penalti la diferencia entre participantes aumentó. Esto podría indicar que la variabilidad en el tiempo de inicio de la parada entre participantes podría verse influenciada por las demandas espacio-temporales. Por último, las intenciones de engaño de los tiradores afectaron su capacidad de tiro (más despacio) pero no provocaron ningún efecto observable en el rendimiento, tiempo de movimiento o patrones visuales de los porteros. La presentación aleatoria de los tiros en cuanto a estrategia podría haber impedido que los porteros establecieran relaciones entre las variables ópticas tempranas (i.e., información del cuerpo del tirador) y la dirección final de tiro (pero ver Dicks, Button y Davids, 2010a).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La subsidencia del terreno constituye un riesgo geotécnico capaz de afectar a amplias zonas del territorio. Este fenómeno puede producirse por la consolidación de los suelos finos de un sistema acuífero, disolución y colapso de materiales yesíferos, actuaciones humanes, etc. Muchas regiones del mundo, y gran parte de la geografía peninsular, pueden verse afectadas de manera significativa por este fenómeno. En este proyecto se pretende crear una metodología de trabajo que se pueda aplicar en cualquier ámbito geográfico para el control de las subsidencias. Para la realización de esta metodología se han tomado tres técnicas de auscultación de subsidencias, nivelación geométrica de precisión, nivelación GPS y DinSAR, y comparado sus pros y contras, así como las precisiones esperadas y el organigrama de trabajo. Para que se vea mejor la funcionalidad del sistema, se ha procedido a la implantación teórica del mismo en una localización al Norte de la ciudad de Madrid con un escenario realista. Abstract Subsidence is a geotechnical risk which can affect large countryside areas. This phenomenon may be produced by the consolidation of an aquifer system fine soils, dissolution and collapse of gypsum materials, human actions, etc. Many regions of the world, and much of the Iberian Peninsula, may be significantly affected by this condition. This project aims to create a methodology that can be applied in any geographical area to control subsidence. For this purpose, three subsidence monitoring techniques have been studied. Those are precision geometric leveling, GPS leveling and DInSAR. During the project, pros and cons as well as the precisions expected and work schedule have been studied and compared. The subsidence auscultation system has been theoretically implemented in a location. This location is a realistic stage located north of Madrid