943 resultados para Expresiones conectivas
Resumo:
Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.
Resumo:
En este artículo se presenta en primer lugar el marco de referencia de cálculo correspondiente al Eurocódigo EC-7 basado fundamentalmente: en la definición de los ?estados límite últimos y de servicio? a cumplir por las distintas actuaciones geotécnicas, en la adopción de un método de cálculo basado en coeficientes parciales que afectan a las acciones o efectos de las acciones, a los parámetros geotécnicos de los materiales y a las resistencias del terreno, y en la determinación de diferentes ?enfoques de proyecto? que constituyen distintas formas de cuantificar la incertidumbre en el cálculo de los estados límite. Con objeto de explicar el cálculo de la estabilidad de pantallas de acuerdo a la metodología introducida por el EC-7 y de explicar las razones que han llevado a definir los valores de los coeficientes parciales a usar en España, se han analizado varias situaciones sencillas (pantalla en voladizo con y sin sobrecarga y con el nivel freático profundo y pantalla en voladizo sin carga con el nivel freático somero) comparando las expresiones utilizadas para los cálculos de acuerdo al EC-7 y a la práctica habitual española. Por último, se describe el procedimiento operativo y el esquema de cálculo que se debe llevar a cabo para el análisis de la estabilidad global de una pantalla mediante la utilización de programas comerciales basados en el modelo de Winkler.
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
Las estructuras de hormigón son susceptibles de sufrir los efectos asociados a las acciones de fatiga cuando estas se ven sometidas a un elevado número de cargas repetidas. Muchas de estas estructuras no requieren armadura transversal para cumplir los condicionantes de dimensionamiento estático como por ejemplo las losas superiores de tableros de puentes, los muros de contención, las losas de transición de puentes, las torres eólicas o las estructuras marítimas. La mayor parte de los códigos de diseño vigentes no incluyen una comprobación específica del nivel de seguridad a cortante de estas estructuras para acciones de fatiga, y aquellas que lo hacen prefieren utilizar expresiones de tipo empírico basadas en curvas S-N que relacionan el número de ciclos resistentes con el valor de la carga aplicada. A pesar de que el empleo de curvas S-N es de gran utilidad desde un punto de vista práctico, estas curvas no permiten comprender el proceso de rotura por cortante para cargas repetidas. El objetivo principal de esta Tesis es el de estudiar el comportamiento a cortante de elementos de hormigón armado sin cercos sometidos a fatiga. Además, el análisis es ampliado al estudio del comportamiento transversal de los voladizos de las losas superiores de tableros de puentes de hormigón que de forma habitual son diseñados sin armadura de cortante. De forma habitual estos elementos se diseñan atendiendo a criterios de dimensionamiento estáticos sin tener en cuenta la resistencia a cortante cuando se ven sometidos a cargas cíclicas. A pesar de que las cargas de fatiga son inferiores a aquellas que producen el fallo estático, es importante tener en cuenta el comportamiento de estos elementos ante cargas repetidas. Los trabajos experimentales existentes en vigas de hormigón armado sin cercos evidenciaron diferencias significativas entre los modos de fallo ante cargas estáticas y cíclicas. Estos trabajos llegaron a la conclusión de que estos elementos diseñados para tener un fallo dúctil por flexión pueden llegar a desarrollar un tipo de fallo frágil por cortante cuando se ven sometidos a cargas repetidas. El proceso de rotura por cortante en elementos de hormigón armado sin cercos sometidos a fatiga es un proceso complejo que debe ser estudiado en profundidad debido al carácter frágil de este tipo de fallo. Los trabajos experimentales permitieron comprobar que el origen de este fallo tiene lugar tras la formación de una fisura de cortante a partir de una fisura de flexión formada durante los primeros ciclos en el vano de cortante. Tras la formación de esta fisura, esta se va propagando hacia la cabeza de compresión hasta que finalmente se produce el fallo como consecuencia de la destrucción de la cabeza de compresión cuando la altura alcanzada por esta es insuficiente para resistir la fuerza de compresión aplicada en esta zona. Por otra parte, la propagación de esta fisura diagonal puede desarrollarse por completo en el instante en el que esta se forma derivando en un tipo de fallo por cortante más frágil que el anterior. El proceso de fatiga es estudiado en esta Tesis mediante un modelo mecánico. Por una parte, se propone un modelo predictivo para determinar el número de ciclos acumulados hasta que se forma la fisura diagonal en función del estado tensional que se tiene en la punta de una fisura crítica de flexión formada en los primeros ciclos. Por otra parte, la resistencia a fatiga tras la formación de la fisura diagonal se analiza teniendo en cuenta el daño por fatiga acumulado en la cabeza de compresión y las variables que afectan a la propagación de esta fisura de cortante. Para la evaluación de la resistencia a fatiga tras la formación de la fisura crítica de cortante en este tipo de elementos, se plantea un modelo teórico basado en conceptos de Mecánica de la Fractura adaptados al hormigón. Este modelo puede ser aplicado a vigas de hormigón armado sin cercos de canto constante o variable siguiendo diferentes procedimientos. Una campaña experimental ha sido llevada a cabo con el objetivo de estudiar el comportamiento a cortante de vigas de hormigón armado sin cercos de canto variable sometidas a cargas estáticas y de fatiga. Se han desarrollado un total de diez ensayos estáticos y de fatiga para diferentes niveles de carga y esbelteces de cortante, teniendo lugar diferentes modos de fallo. Estos elementos fueron diseñados para reproducir, a escala real y de forma simplificada, los voladizos laterales de las losas superiores de tableros de puentes de carretera de hormigón. Los resultados experimentales demostraron que el tipo de fallo desarrollado depende de varios parámetros como por ejemplo el nivel de carga máxima, el nivel de oscilación de tensiones en la armadura longitudinal, la esbeltez de cortante o la calidad del hormigón utilizado entre otros. Para valores similares de esbeltez de cortante, los ensayos de fatiga realizados permitieron comprobar que la rotura por cortante de estos elementos está asociada a niveles de carga máxima elevados, mientras que el fallo por fatiga de la armadura longitudinal tiene mayor probabilidad de ocurrir en elementos sometidos a elevados niveles de oscilación de tensiones en esta armadura. Además, estos ensayos han sido analizados a través del modelo propuesto para tratar de comprender el comportamiento resistente de estos elementos sometidos a cargas de fatiga. Concrete structures are able to suffer fatigue when they are subjected to high number of cyclic loads. Many of these need not shear reinforcement to satisfy static design requirements, such as bridge deck slabs, retaining walls, bridge approach slabs, wind towers or maritime structures among others. Many codes of practice do not include a verification of the shear fatigue safety. Moreover, those which include it still prefer empirical S-N-based approaches that provide the number of cycles as a function of applied forces. S-N models are practical but they do not provide information to understand the shear fatigue process. The main objective of this Thesis is to study shear behaviour of reinforced concrete elements without stirrups subjected to fatigue loads. In addition, the analysis is extended in order to study the transverse behaviour of cantilever slabs of concrete bridges that traditionally are designed without shear reinforcement. These elements usually are designed on the basis of static strength and it is unusual that codes consider fatigue strength of concrete in shear. Accordingly, it is important to take into account the fatigue behaviour of structural members subjected to cyclic loads although these loads are lower than those which produce the static failure. Existing experimental works show important differences between the static and cyclic failure modes of reinforced concrete beams without stirrups. These works concluded that beams without transverse reinforcement, designed to have a ductile failure mode in flexure, can submit a brittle shear failure mode when they are subjected to repeated loads. Shear fatigue failure of reinforced concrete beams without stirrups is a rather complex process from the mechanical viewpoint. Since it leads to a brittle failure mode it should be better understood. Experimental evidence indicates that a diagonal crack first develops from the inclination of flexural cracks in the shear span. Thereafter, the diagonal crack propagates into the compression zone. Failure normally takes place by the destruction of the compression zone when its depth is too small to resist the applied force. The propagation of the diagonal crack can also be instantaneous, leading to sudden diagonal cracking fatigue failure rather than shear-compression failure. Fatigue process is studied in this Thesis on a mechanical basis. On the one hand, a predictive model is derived to obtain the number of cycles up to diagonal cracking, as a function of the stress state at the tip of a critical flexural crack. On the other hand, the residual fatigue strength after diagonal cracking is analyzed taking into account the fatigue damage accumulated by the compression zone and the variables affecting the propagation of the diagonal crack. In order to assess the residual fatigue strength after diagonal cracking of such elements, a theoretical model is proposed based on concepts from fracture mechanics adapted to concrete. This model can be successfully applied for straight or haunched reinforced concrete beams without stirrups following different procedures. In order to achieve a more advanced knowledge in this subject, an experimental campaign has been carried out with the aim of study the shear behaviour of reinforced concrete haunched beams without stirrups subjected to static and fatigue loads. A total of ten static and fatigue tests have been performed with distinct load levels and shear span-to-depth ratios, presenting different failures modes. These elements were designed to reproduce in a simplified form the cantilever slab of concrete bridges at real scale. Experimental results showed that the type of failure depends on several parameters as for example the maximum load level, the stress oscillation level on the longitudinal reinforcement, the shear span-to-depth ratio or the quality of the concrete used among others. For a similar value of the shear span-to-depth ratio, tests evidenced that shear fatigue failure is related to high maximum load levels, while steel fatigue failure is easier to occur in elements subjected to high stress oscillation level on the reinforcement bars. Besides, these tests have been analyzed through the proposed model in order to clarify the structural behaviour of such elements subjected to fatigue loads.
Resumo:
El presente trabajo fin de máster tiene como objetivo comprobar experimentalmente el efecto de la presión hidrostática en la plastificación de materiales metálicos. Para ello basándose en el artículo de Aretz que analiza los ensayos de tracción y compresión llevados a cabo por Spitzig y Richmond (1984), donde se constata la respuesta plástica sensible a la presión hidrostática, se realizan sendos ensayos de tracción y torsión con probetas de acero, aluminio y fundición. Posteriormente se analiza la influencia de la presión a través de las curvas tensión equivalente- deformación equivalente de los materiales. Y por último se construyen las expresiones analíticas de Ramberg-Osgood de los materiales.
Resumo:
Dentro de la teoría de las láminas rebajadas de Vlasvov, se presenta una solución analítica compacta correspondiente a la solución de M. Levy. Algunos resultados en las expresiones de los esfuerzos y desplazamientos, que suponen una cierta simplificación en el estudio del caso general con vigas de borde se exponen, probablemente por primera vez, en la literatura usual sobre el tema. Se resuelve mediante computador electrónico un ejemplo de aplicaión.
Resumo:
Se presentan las expresiones explícitas de las frecuencias y modos de vibración de un edificio homogéneo y regular. A efectos prácticos se propone una fórmula de interpolación de las frecuencias para casos intermedios entre las situaciones de viga de cortante y viga de flexión. Los resultados obtenidos permiten su extensión al análisis de estructuras, entramados planos irregulares y heterogéneos, mediante la utilización de la técnica de Ritz. Se presentan algunos ejemplos de la eficiencia y aproximación del método.
Resumo:
El presente trabajo corresponde a una aplicación de los métodos matemáticos de resolución de ecuaciones diferenciales ordinarias al cálculo elemental de vigas alabeadas. Representa un estudio que comenzó hace varios años el primer autor y que ahora, en colaboración con el profesor González de Cangas, encuentra su término final en esta publicación de la Cátedra de Análisis de las Estructuras de la E.T.S. de Ingenieros de Caminos de Santander. El objetivo de estas notas es fundamentalmente ilustrativo, por lo que únicamente se ha considerado una teoría elemental lineal y elástica de las vigas alabeadas, en donde se extiende la validez de la hipótesis de Navier, así como la no consideración de las deformaciones de cortante y alabeo. Se aplica esta teoría general a un caso simple, la viga balcón circular, en donde se presentan las expresiones de la matriz de rigidez y de las reacciones de empotramiento rígido, bajo dos tipos de carga: puntual arbitraria y uniformemente repartida en toda la luz. La extensión a otros tipos estructurales (viga helicoidal, vigas distorsionadas, etc.) es directa. Esperamos que este trabajo represente una ayuda en el planteamiento y resolución de éstos y otros casos estructurales simples.
Resumo:
La metáfora y otros mecanismos imaginativos subyacentes al pensa- miento y lenguaje humanos pueden ser utilizados en el discurso diario y especializado (Lakoff y Johnson 1980; Lakoff y Nuñez 2000). Asimismo pueden aparecer en la comunicación no verbal (Forceville y Urios-Aparisi 2009; Littlemore et al. Este volumen).Partiendo de estudios cognitivos y de la teoría de integración conceptual (Fauconnier 1997; Fauconnier y Turner 2002), este artículo examina la presencia de la metáfora en la ingeniería. Primeramente, se analiza un corpus lingüístico procedente de artículos de investigación de ingeniería civil. Los datos revelan el uso de la metáfora antropomórfica, sobre todo en expresiones relativas a la salud, como “diagnóstico”, “auscultación” o “proceso de curación”. Se exploran además ejemplos de ingeniería cuya fuente son proyecciones conceptuales corporales. Finalmente, abordamos la función de la metáfora visual bajo la teoría de integración conceptual mediante representaciones de ingeniería que evocan la anatomía humana o animal. Metaphor and other imaginative mechanisms that underlie human thought and language such as metonymy are used in everyday and specialised discourse (Lakoff and Johnson 1980; Lakoff and Nuñez 2000) They can also be involved in non- verbal forms of communication (Forceville and Urios-Aparisi 2009; Littlemore et al. this volume). Drawing on metaphor cognitive studies and on conceptual integration theory (Fauconnier 1997; Fauconnier and Turner 2002) this paper examines the occurrence of metaphor in engineering. First, we analyse results from a linguistic corpus formed by research papers from civil engineering journals. These data reveal the use of anthropomorphic metaphor, especially related to health or medical mappings such as “diagnosing”, “auscultation” or “curing”. Then, we explore how engineering notions are instantiated by bodily conceptual mappings according to conceptual integration theory. Finally, the function of visual metaphor is examined with conceptual integration theory by using engineering images evoking parts of human or animal anatomy.
Resumo:
Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.
Resumo:
El artículo presenta una formulación sencilla que permite obtener los seis primeros períodos propios de vibración de una presa bóveda simétrica diseñada según las recomendaciones del U.S. Bureau of Reclamation. Se indican las expresiones polinómicas aproximadas de estos períodos, tanto para embalse vacío como para embalse lleno. El efecto del embalse se modeliza mediante la técnica de Westergaard modificada. Asimismo se indica una expresión que intenta tener en cuenta, de modo tentativo, el efecto de la flexibilidad del terreno
Resumo:
Una de las dificultades principales en el desarrollo de software es la ausencia de un marco conceptual adecuado para su estudio. Una propuesta la constituye el modelo transformativo, que entiende el desarrollo de software como un proceso iterativo de transformación de especificaciones: se parte de una especificación inicial que va transformándose sucesivamente hasta obtener una especificación final que se toma como programa. Este modelo básico puede llevarse a la práctica de varias maneras. En concreto, la aproximación deductiva toma una sentencia lógica como especificación inicial y su proceso transformador consiste en la demostración de la sentencia; como producto secundario de la demostración se deriva un programa que satisface la especificación inicial. La tesis desarrolla un método deductivo para la derivación de programas funcionales con patrones, escritos en un lenguaje similar a Hope. El método utiliza una lógica multigénero, cuya relación con el lenguaje de programación es estudiada. También se identifican los esquemas de demostración necesarios para la derivación de funciones con patrones, basados en la demostración independiente de varias subsentencias. Cada subsentencia proporciona una subespecificación de una ecuación del futuro programa a derivar. Nuestro método deductivo está inspirado en uno previo de Zohar Manna y Richard Waldinger, conocido como el cuadro deductivo, que deriva programas en un lenguaje similar a Lisp. El nuevo método es una modificación del cuadro de estos autores, que incorpora géneros y permite demostrar una especificación mediante varios cuadros. Cada cuadro demuestra una subespecificación y por tanto deriva una ecuación del programa. Se prevén mecanismos para que los programas derivados puedan contener definiciones locales con patrones y variables anónimas y sinónimas y para que las funciones auxiliares derivadas no usen variables de las funciones principales. La tesis se completa con varios ejemplos de aplicación, un mecanismo que independentiza el método del lenguaje de programación y un prototipo de entorno interactivo de derivación deductiva. Categorías y descriptores de materia CR D.l.l [Técnicas de programación]: Programación funcional; D.2.10 [Ingeniería de software]: Diseño - métodos; F.3.1 [Lógica y significado de los programas]: Especificación, verificación y razonamiento sobre programas - lógica de programas; F.3.3 [Lógica y significado de los programas]: Estudios de construcciones de programas - construcciones funcionales; esquemas de programa y de recursion; 1.2.2 [Inteligencia artificial]: Programación automática - síntesis de programas; 1.2.3 [Inteligencia artificial]: Deducción y demostración de teoremas]: extracción de respuesta/razón; inducción matemática. Términos generales Programación funcional, síntesis de programas, demostración de teoremas. Otras palabras claves y expresiones Funciones con patrones, cuadro deductivo, especificación parcial, inducción estructural, teorema de descomposición.---ABSTRACT---One of the main difficulties in software development is the lack of an adequate conceptual framework of study. The transformational model is one such proposal that conceives software development as an iterative process of specifications transformation: an initial specification is developed and successively transformed until a final specification is obtained and taken as a program. This basic model can be implemented in several ways. The deductive approach takes a logical sentence as the initial specification and its proof constitutes the transformational process; as a byproduct of the proof, a program which satisfies the initial specification is derived. In the thesis, a deductive method for the derivation of Hope-like functional programs with patterns is developed. The method uses a many-sorted logic, whose relation to the programming language is studied. Also the proof schemes necessary for the derivation of functional programs with patterns, based on the independent proof of several subsentences, are identified. Each subsentence provides a subspecification of one equation of the future program to be derived. Our deductive method is inspired on a previous one by Zohar Manna and Richard Waldinger, known as the deductive tableau, which derives Lisp-like programs. The new method incorporates sorts in the tableau and allows to prove a sentence with several tableaux. Each tableau proves a subspecification and therefore derives an equation of the program. Mechanisms are included to allow the derived programs to contain local definitions with patterns and anonymous and synonymous variables; also, the derived auxiliary functions cannot reference parameters of their main functions. The thesis is completed with several application examples, i mechanism to make the method independent from the programming language and an interactive environment prototype for deductive derivation. CR categories and subject descriptors D.l.l [Programming techniques]: Functional programming; D.2.10 [Software engineering]: Design - methodologies; F.3.1 [Logics and meanings of programa]: Specifying and verifying and reasoning about programs - logics of programs; F.3.3 [Logics and meanings of programs]: Studies of program constructs - functional constructs; program and recursion schemes; 1.2.2 [Artificial intelligence]: Automatic programming - program synthesis; 1.2.3 [Artificial intelligence]: Deduction and theorem proving - answer/reason extraction; mathematical induction. General tenas Functional programming, program synthesis, theorem proving. Additional key words and phrases Functions with patterns, deductive tableau, structural induction, partial specification, descomposition theorem.
Resumo:
En una planta de fusión, los materiales en contacto con el plasma así como los materiales de primera pared experimentan condiciones particularmente hostiles al estar expuestos a altos flujos de partículas, neutrones y grandes cargas térmicas. Como consecuencia de estas diferentes y complejas condiciones de trabajo, el estudio, desarrollo y diseño de estos materiales es uno de los más importantes retos que ha surgido en los últimos años para la comunidad científica en el campo de los materiales y la energía. Debido a su baja tasa de erosión, alta resistencia al sputtering, alta conductividad térmica, muy alto punto de fusión y baja retención de tritio, el tungsteno (wolframio) es un importante candidato como material de primera pared y como posible material estructural avanzado en fusión por confinamiento magnético e inercial. Sin embargo, el tiempo de vida del tungsteno viene controlado por diversos factores como son su respuesta termo-mecánica en la superficie, la posibilidad de fusión y el fallo por acumulación de helio. Es por ello que el tiempo de vida limitado por la respuesta mecánica del tungsteno (W), y en particular su fragilidad, sean dos importantes aspectos que tienes que ser investigados. El comportamiento plástico en materiales refractarios con estructura cristalina cúbica centrada en las caras (bcc) como el tungsteno está gobernado por las dislocaciones de tipo tornillo a escala atómica y por conjuntos e interacciones de dislocaciones a escalas más grandes. El modelado de este complejo comportamiento requiere la aplicación de métodos capaces de resolver de forma rigurosa cada una de las escalas. El trabajo que se presenta en esta tesis propone un modelado multiescala que es capaz de dar respuestas ingenieriles a las solicitudes técnicas del tungsteno, y que a su vez está apoyado por la rigurosa física subyacente a extensas simulaciones atomísticas. En primer lugar, las propiedades estáticas y dinámicas de las dislocaciones de tipo tornillo en cinco potenciales interatómicos de tungsteno son comparadas, determinando cuáles de ellos garantizan una mayor fidelidad física y eficiencia computacional. Las grandes tasas de deformación asociadas a las técnicas de dinámica molecular hacen que las funciones de movilidad de las dislocaciones obtenidas no puedan ser utilizadas en los siguientes pasos del modelado multiescala. En este trabajo, proponemos dos métodos alternativos para obtener las funciones de movilidad de las dislocaciones: un modelo Monte Cario cinético y expresiones analíticas. El conjunto de parámetros necesarios para formular el modelo de Monte Cario cinético y la ley de movilidad analítica son calculados atomísticamente. Estos parámetros incluyen, pero no se limitan a: la determinación de las entalpias y energías de formación de las parejas de escalones que forman las dislocaciones, la parametrización de los efectos de no Schmid característicos en materiales bcc,etc. Conociendo la ley de movilidad de las dislocaciones en función del esfuerzo aplicado y la temperatura, se introduce esta relación como ecuación de flujo dentro de un modelo de plasticidad cristalina. La predicción del modelo sobre la dependencia del límite de fluencia con la temperatura es validada experimentalmente con ensayos uniaxiales en tungsteno monocristalino. A continuación, se calcula el límite de fluencia al aplicar ensayos uniaxiales de tensión para un conjunto de orientaciones cristalográticas dentro del triángulo estándar variando la tasa de deformación y la temperatura de los ensayos. Finalmente, y con el objetivo de ser capaces de predecir una respuesta más dúctil del tungsteno para una variedad de estados de carga, se realizan ensayos biaxiales de tensión sobre algunas de las orientaciones cristalográficas ya estudiadas en función de la temperatura.-------------------------------------------------------------------------ABSTRACT ----------------------------------------------------------Tungsten and tungsten alloys are being considered as leading candidates for structural and functional materials in future fusion energy devices. The most attractive properties of tungsten for the design of magnetic and inertial fusion energy reactors are its high melting point, high thermal conductivity, low sputtering yield and low longterm disposal radioactive footprint. However, tungsten also presents a very low fracture toughness, mostly associated with inter-granular failure and bulk plasticity, that limits its applications. As a result of these various and complex conditions of work, the study, development and design of these materials is one of the most important challenges that have emerged in recent years to the scientific community in the field of materials for energy applications. The plastic behavior of body-centered cubic (bcc) refractory metals like tungsten is governed by the kink-pair mediated thermally activated motion of h¿ (\1 11)i screw dislocations on the atomistic scale and by ensembles and interactions of dislocations at larger scales. Modeling this complex behavior requires the application of methods capable of resolving rigorously each relevant scale. The work presented in this thesis proposes a multiscale model approach that gives engineering-level responses to the technical specifications required for the use of tungsten in fusion energy reactors, and it is also supported by the rigorous underlying physics of extensive atomistic simulations. First, the static and dynamic properties of screw dislocations in five interatomic potentials for tungsten are compared, determining which of these ensure greater physical fidelity and computational efficiency. The large strain rates associated with molecular dynamics techniques make the dislocation mobility functions obtained not suitable to be used in the next steps of the multiscale model. Therefore, it is necessary to employ mobility laws obtained from a different method. In this work, we suggest two alternative methods to get the dislocation mobility functions: a kinetic Monte Carlo model and analytical expressions. The set of parameters needed to formulate the kinetic Monte Carlo model and the analytical mobility law are calculated atomistically. These parameters include, but are not limited to: enthalpy and energy barriers of kink-pairs as a function of the stress, width of the kink-pairs, non-Schmid effects ( both twinning-antitwinning asymmetry and non-glide stresses), etc. The function relating dislocation velocity with applied stress and temperature is used as the main source of constitutive information into a dislocation-based crystal plasticity framework. We validate the dependence of the yield strength with the temperature predicted by the model against existing experimental data of tensile tests in singlecrystal tungsten, with excellent agreement between the simulations and the measured data. We then extend the model to a number of crystallographic orientations uniformly distributed in the standard triangle and study the effects of temperature and strain rate. Finally, we perform biaxial tensile tests and provide the yield surface as a function of the temperature for some of the crystallographic orientations explored in the uniaxial tensile tests.
Resumo:
En el presente Trabajo de Fin de Máster se ha realizado un análisis sobre las técnicas y herramientas de Generación de Lenguaje Natural (GLN), así como las modificaciones a la herramienta Simple NLG para generar expresiones en el idioma Español. Dicha extensión va a permitir ampliar el grupo de personas a las cuales se les transmite la información, ya que alrededor de 540 millones de personas hablan español. Keywords - Generación de Lenguaje Natural, técnicas de GLN, herramientas de GLN, Inteligencia Artificial, análisis, SimpleNLG.---ABSTRACT---In this Master's Thesis has been performed an analysis on techniques and tools for Natural Language Generation (NLG), also the Simple NLG tool has been modified in order to generate expressions in the Spanish language. This modification will allow transmitting the information to more people; around 540 million people speak Spanish. Keywords - Natural Language Generation, NLG tools, NLG techniques, Artificial Intelligence, analysis, SimpleNLG.
Resumo:
Este documento es una introducción con carácter divulgativo a los fundamentos matemáticos básicos empleados por Albert Einstein para la formulación de la teoría de relatividad general. La mayoría de ellos se pueden emplear en otros campos como la óptica no lineal o la teoría de cuerdas, donde muchas expresiones deben tener el carácter de covarianza general, es decir, sus expresiones no deben depender del sistema de referencia escogido.