1000 resultados para Técnicas de trabajo
Resumo:
Este Trabajo de Fin de Grado (TFG) tiene el objetivo de aportar un sistema de enseñanza innovador, un sistema de enseñanza mediante el cual se consiga involucrar a los alumnos en tareas y prácticas en las que se adquieran conocimientos a la vez que se siente un ambiente de juego, es decir, que se consiga aprender de forma divertida. Está destinado al sistema educativo de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid, en concreto a las asignaturas relacionadas con los Procesadores de Lenguajes. La aplicación desarrollada en este trabajo está destinada tanto a los profesores de las asignaturas de Procesadores de Lenguajes como a los alumnos que tengan alguna relación con esas asignaturas, consiguiendo mayor interacción y diversión a la hora de realizar la tareas y prácticas de las asignaturas. Para los dos tipos de usuarios descritos anteriormente, la aplicación está configurada para que puedan identificarse mediante sus credenciales, comprobándose si los datos introducidos son correctos, y así poder acceder al sistema. Dependiendo de qué tipo de usuario se identifique, tendrá unas opciones u otras dentro del sistema. Los profesores podrán dar de alta, ver, modificar o dar de baja las configuraciones para los analizadores de los lenguajes correspondientes a las diferentes asignaturas que están configurados previamente en el sistema. Además, los profesores pueden dar de alta, ver, modificar o dar de baja los fragmentos de código que formarán los ficheros correspondientes a las plantillas de pruebas del analizador léxico que se les ofrece a los alumnos para realizar comprobaciones de las prácticas. Mediante la aplicación podrán establecer diferentes características y propiedades de los fragmentos que incorporen al sistema. Por otra parte, los alumnos podrán realizar la configuración del lenguaje, definido por los profesores, para la parte del analizador léxico de las prácticas. Esta configuración será guardada para el grupo al que corresponde el alumno, pudiendo realizar modificaciones cualquier miembro del grupo. De esta manera, se podrán posteriormente establecer las relaciones necesarias entre los elementos del lenguaje según la configuración de los profesores y los elementos referentes a las prácticas de los alumnos.Además, los alumnos podrán realizar comprobaciones de la parte léxica de sus prácticas mediante los ficheros que se generan por el sistema en función de sus opciones de práctica y los fragmentos añadidos por los profesores. De esta manera, se informará a los alumnos del éxito de las pruebas o bien de los fallos ocasionados con sus resultados, bien por el formato del archivo subido como resultado de la prueba o bien por el contenido incorrecto de este mismo. Todas las funciones que ofrece esta aplicación son completamente on-line y tendrán una interfaz llamativa y divertida, además de caracterizarse por su facilidad de uso y su comodidad. En el trabajo realizado para este proyecto se cumplen tanto las Pautas de Accesibilidad para Contenidos Web (WCAG 2.0), así como las propiedades de un código HTML 5 y CSS 3 de manera correcta, para así conseguir que los usuarios utilicen una aplicación fácil, cómoda y atractiva.---ABSTRACT---This Final Year Project (TFG) aims to contribute the educational system of the School of Computer Engineering at the Polytechnic University of Madrid, especially in subjects related with Language Processors. This project is an interactive learning system whose goal is to learn in an amusing environment. To realize this target, the system involves students, using environments of games in tasks and practices. The application developed in this project is designed for both professors of the subjects of Language Processors and students who have some relation to these subjects. This perspective achieve more interaction and a funny environment during the subject‘s tasks. The application is configured in order to the users can be identified by their credentials, checking whether the identification data are correct to have access to the system. According on what type of user is identified, they will have different options within the system. Professors will be able to register, modify or delete settings for the scanner of languages for all the subjects preconfigured in the system. Additionally, professors can register, show, modify or remove the code of the templates from scanner tests that are offered to students for testing the practical exercises. The professors may provide also different characteristics and properties of fragments incorporated in the system. Moreover, students can make the configuration of languages, getting in the systems by the administrators, for the scanner module of their practical exercises. This configuration will be saved for the group of the student. This model can also be changed by any group member. The system permits also establish later the relationships between the elements of language fixes by professors and elements developed by the students. Students could check the lexical part of their practical exercises through files that are created according to their practical options and the fragments added by professors. Thus students will be informed of success or failure in the uploaded files format and in the content of them. All functions provide by this application are completely on-line and will have a striking and funny interface, also characterized by its ease of use and comfort.The work reaches both the Web Content Accessibility Guidelines (WCAG 2.0), and the properties of an HTML 5 and CSS 3 code correctly, in order to get the users to get an easy, convenient application and attractive.
Resumo:
El grupo de investigación GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM) participa en uno de los experimentos de propagación de APEX (Alphasat Propagation Experiment), denominado Alphasat propagation experiment by measuring the copolar level of the Q-Band beacon at 39.4 GHz. El experimento comenzó en abril de 2014, midiendo la señal de 39,4 GHz. Durante los primeros meses hasta septiembre de 2014, se hicieron medidas con apuntamiento fijo. El satélite no es geoestacionario sino que tiene una cierta inclinación, por lo que su posición aparente no es fija, describiendo una pequeña elipse en el cielo. Como consecuencia de esto se produce una variación sistemática en el nivel de la señal recibida que hay que eliminar. El presente Trabajo fin de Grado recoge técnicas útiles para llevar a cabo la compensación del desapuntamiento producido por el apuntamiento fijo configurado en el receptor diseñado por el grupo de investigación GTIC-Radiocomunicaciones de la UPM. El conjunto de datos utilizado, ha sido preprocesado con anterioridad llevándose a cabo un proceso de marcado y sincronización de los datos obtenidos a través de la baliza a 39,4 GHz enviada desde el Alphasat. A lo largo del documento se interpretarán y compararán los resultados obtenidos mediante gráficas elaboradas tras la aplicación de las técnicas que se describen en el desarrollo del mismo.
Resumo:
La finalidad de este trabajo es estudiar los tipos de malware existentes así como las técnicas criptográficas utilizadas en ellos para ocultar y ofuscar sus actividades, con el fin de impedir su análisis a las empresas de seguridad. En este trabajo se propone un criptosistema conveniente que, además de en malware, pueda ser empleado en otros ámbitos. El análisis comienza proponiendo una breve definición del término Criptografía y explicando mediante ejemplos los distintos tipos de sistemas criptográficos y algunos posibles usos. A continuación se lleva a cabo un estudio de los distintos tipos de malware existentes, dando una visión histórica de los tipos de Criptografía utilizados hasta el momento en cada caso. El estudio profundiza en las técnicas criptográficas utilizadas actualmente y su seguridad criptográfica. Además, se realiza una propuesta de posibles soluciones criptográficas, analizando la seguridad computacional resultante de aplicar dichas soluciones y calculando la carga computacional adicional precisa. Finalmente se ofrecen una serie de conclusiones y unas líneas de desarrollo futuras.
Resumo:
En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.
Resumo:
Los ataques a redes de información son cada vez más sofisticados y exigen una constante evolución y mejora de las técnicas de detección. Para ello, en este proyecto se ha diseñado e implementado una plataforma cooperativa para la detección de intrusiones basada en red. En primer lugar, se ha realizado un estudio teórico previo del marco tecnológico relacionado con este ámbito, en el que se describe y caracteriza el software que se utiliza para realizar ataques a sistemas (malware) así como los métodos que se utilizan para llegar a transmitir ese software (vectores de ataque). En el documento también se describen los llamados APT, que son ataques dirigidos con una gran inversión económica y temporal. Estos pueden englobar todos los malware y vectores de ataque existentes. Para poder evitar estos ataques, se estudiarán los sistemas de detección y prevención de intrusiones, describiendo brevemente los algoritmos que se tienden a utilizar en la actualidad. En segundo lugar, se ha planteado y desarrollado una plataforma en red dedicada al análisis de paquetes y conexiones para detectar posibles intrusiones. Este sistema está orientado a sistemas SCADA (Supervisory Control And Data Adquisition) aunque funciona sobre cualquier red IPv4/IPv6, para ello se definirá previamente lo que es un sistema SCADA, así como sus partes principales. Para implementar el sistema se han utilizado dispositivos de bajo consumo llamados Raspberry PI, estos se ubican entre la red y el equipo final que se quiera analizar. En ellos se ejecutan 2 aplicaciones desarrolladas de tipo cliente-servidor (la Raspberry central ejecutará la aplicación servidora y las esclavas la aplicación cliente) que funcionan de forma cooperativa utilizando la tecnología distribuida de Hadoop, la cual se explica previamente. Mediante esta tecnología se consigue desarrollar un sistema completamente escalable. La aplicación servidora muestra una interfaz gráfica que permite administrar la plataforma de análisis de forma centralizada, pudiendo ver así las alarmas de cada dispositivo y calificando cada paquete según su peligrosidad. El algoritmo desarrollado en la aplicación calcula el ratio de paquetes/tiempo que entran/salen del equipo final, procesando los paquetes y analizándolos teniendo en cuenta la información de señalización, creando diferentes bases de datos que irán mejorando la robustez del sistema, reduciendo así la posibilidad de ataques externos. Para concluir, el proyecto inicial incluía el procesamiento en la nube de la aplicación principal, pudiendo administrar así varias infraestructuras concurrentemente, aunque debido al trabajo extra necesario se ha dejado preparado el sistema para poder implementar esta funcionalidad. En el caso experimental actual el procesamiento de la aplicación servidora se realiza en la Raspberry principal, creando un sistema escalable, rápido y tolerante a fallos. ABSTRACT. The attacks to networks of information are increasingly sophisticated and demand a constant evolution and improvement of the technologies of detection. For this project it is developed and implemented a cooperative platform for detect intrusions based on networking. First, there has been a previous theoretical study of technological framework related to this area, which describes the software used for attacks on systems (malware) as well as the methods used in order to transmit this software (attack vectors). In this document it is described the APT, which are attacks directed with a big economic and time inversion. These can contain all existing malware and attack vectors. To prevent these attacks, intrusion detection systems and prevention intrusion systems will be discussed, describing previously the algorithms tend to use today. Secondly, a platform for analyzing network packets has been proposed and developed to detect possible intrusions in SCADA (Supervisory Control And Data Adquisition) systems. This platform is designed for SCADA systems (Supervisory Control And Data Acquisition) but works on any IPv4 / IPv6 network. Previously, it is defined what a SCADA system is and the main parts of it. To implement it, we used low-power devices called Raspberry PI, these are located between the network and the final device to analyze it. In these Raspberry run two applications client-server developed (the central Raspberry runs the server application and the slaves the client application) that work cooperatively using Hadoop distributed technology, which is previously explained. Using this technology is achieved develop a fully scalable system. The server application displays a graphical interface to manage analytics platform centrally, thereby we can see each device alarms and qualifying each packet by dangerousness. The algorithm developed in the application calculates the ratio of packets/time entering/leaving the terminal device, processing the packets and analyzing the signaling information of each packet, reating different databases that will improve the system, thereby reducing the possibility of external attacks. In conclusion, the initial project included cloud computing of the main application, being able to manage multiple concurrent infrastructure, but due to the extra work required has been made ready the system to implement this funcionality. In the current test case the server application processing is made on the main Raspberry, creating a scalable, fast and fault-tolerant system.
Resumo:
Los Recursos Educativos Abiertos (REA) y los Cursos Educativos Abiertos (OCW) son utilizados como apoyo para los procesos de enseñanza aprendizaje; el carácter de abierto de estos recursos contribuye a la difusión de conocimiento y facilita el acceso a la información. Existe una gran cantidad de universidades e instituciones de educación superior que se han unido al movimiento abierto, poniendo a disposición los OCW que sus docentes realizan para los estudiantes formales, sin embargo se ha detectado que no existe un proceso estándar en la producción de OCW ya que cada universidad lo realiza con modelos propios de acuerdo a las normativas institucionales. Por lo cual en este trabajo de tesis doctoral se propone un modelo de producción de REA y OCW, denominado REACS que contempla el uso de un modelo de diseño instruccional que permite realizar un proceso sistemático de actividades que contribuyen al aprendizaje; además de la utilización de herramientas sociales y herramientas semánticas que aportan al trabajo colaborativo e identificación de los recursos por su significado, lo cual aporta a la inteligencia colectiva. REACS fue comparado con procesos de producción similares de las universidades relevantes del movimiento OCW, además de ser implementado en un caso de estudio con tres fases en la creación de OCW para una institución de educación superior. Con esta validación se pudo comprobar que REACS aportaba a incrementar el número de estudiantes que aprueban un curso y disminuye el tiempo de producción y publicación de un OCW. ABSTRACT Open Educational Resources (OER) and Open Course Ware (OCW) are used as support for teaching and learning processes; the open characteristic of these resources contributes to the diffusion of knowledge and facilitates the access to information. There are an important number of universities and institutions of higher education have joined to the open movement, making available the OCW´s for formal students. However, it has been found that there is not a standard process for the production of OCW and each university develop these with their own models according to their institutional regulations. Therefore, this doctoral thesis proposes REACS, a production model of OER and OCW that contemplates the use of an instructional design model that allows a systematic process of activities that contribute to learning. REACS includes the use of social tools and semantic tools that provide collaborative and identification of resources based in their meaning, contributing with the collective intelligence. REACS was compared with similar production processes belonging to relevant universities in the OCW movement. Additionally OCW were produced using REACS in a study case developed in three stages. With these validations, it was found that REACS contributed to increasing the student approved ratio and the OCW production and publication times were reduced.
Resumo:
Dentro de las técnicas de control de procesos no lineales, los controladores de estructura variable con modos deslizantes (VSC-SM en sus siglas en inglés) han demostrado ser una solución robusta, por lo cual han sido ampliamente estudiados en las cuatro últimas décadas. Desde los años ochenta se han presentado varios trabajos enfocados a especificar controladores VSC aplicados a sistemas de tiempo discreto (DVSC), siendo uno de los mayores intereses de análisis obtener las mismas prestaciones de robustez e invarianza de los controladores VSC-SM. El objetivo principal del trabajo de Tesis Doctoral consiste en estudiar, analizar y proponer unos esquemas de diseño de controladores DVSC en procesos multivariable tanto lineales como no lineales. De dicho estudio se propone una nueva filosofía de diseño de superficies deslizantes estables donde se han considerado aspectos hasta ahora no estudiados en el uso de DVSC-SM como son las limitaciones físicas de los actuadores y la dinámica deslizante no ideal. Lo más novedoso es 1) la propuesta de una nueva metodología de diseño de superficies deslizantes aplicadas a sistemas MIMO lineales y la extensión del mismo al caso de sistemas multivariables no lineales y 2) la definición de una nueva ley de alcance y de una ley de control robusta aplicada a sistemas MIMO, tanto lineales como no lineales, incluyendo un esquema de reducción de chattering. Finalmente, con el fin de ilustrar la eficiencia de los esquemas presentados, se incluyen ejemplos numéricos relacionados con el tema tratado en cada uno de los capítulos de la memoria. ABSTRACT Over the last four decades, variable structure controllers with sliding mode (VSC-SM) have been extensively studied, demonstrating to be a robust solution among robust nonlinear processes control techniques. Since the late 80s, several research works have been focused on the application of VSC controllers applied to discrete time or sampled data systems, which are known as DVSC-SM, where the most extensive source of analysis has been devoted to the robustness and invariance properties of VSC-SM controllers when applied to discrete systems. The main aim of this doctoral thesis work is to study, analyze and propose a design scheme of DVSC-SM controllers for lineal and nonlinear multivariable discrete time processes. For this purpose, a new design philosophy is proposed, where various design features have been considered that have not been analyzed in DVSC design approaches. Among them, the physical limitations and the nonideal dynamic sliding mode dynamics. The most innovative aspect is the inclusion of a new design methodology applied to lineal sliding surfaces MIMO systems and the extension to nonlinear multivariable systems, in addition to a new robust control law applied to lineal and nonlinear MIMO systems, including a chattering reduction scheme. Finally, to illustrate the efficiency of the proposed schemes, several numerical examples applied to lineal and nonlinear systems are included.
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
El objetivo principal del trabajo es demostrar que la utilización y conjunción de técnicas como la micro-segmentación y los Sistemas de Información Geográfica (SIG) que hacen posible plasmar territorialmente los resultados de los análisis; pueden satisfacer de forma más equitativa y eficiente las necesidades de la demanda ciudadana en materia de equipamientos públicos, ayudando así a minimizar las disparidades entre oferta y demanda. En particular, se intenta demostrar que con la conjunción de las técnicas mencionadas es posible dar solución a la baja capacidad de las administraciones para atender las necesidades de equipamientos públicos, construyendo unos segmentos poblacionales diferenciados socio-espacialmente. Esos segmentos corresponden a unos perfiles o tipologías que clasifican a la población de manera más ajustada a la situación y condiciones actuales, en aspectos no solo sociodemográficos o económicos, sino también psicográficos (estilos de vida, motivaciones, gustos, etc). En ese sentido, se busca la viabilidad y aplicación de la conocida técnica de la micro-segmentación, utilizada con éxito en el análisis de mercados en la empresa pública, ahora en la provisión de equipamientos públicos. Lo anterior implica reconocer e interpretar hasta qué punto las dos tecnologías (microsegmentación y SIG) pueden resolver cuestiones en la implantación de servicios y/o equipamientos públicos, e involucra una reingeniería de los procesos operativos, un cambio de cultura y una modernización en la transferencia de los servicios públicos de las administraciones locales. Para validar las brechas existentes entre las necesidades heterogéneas de la demanda urbana y la provisión de equipamientos colectivos por parte de los organismos públicos; se incorpora una serie modelos, principios y técnicas conocidas y avanzadas, como la localización óptima de equipamientos, con el fin de analizar las capacidades que tienen dichos equipamientos para satisfacer la demanda actual. Por último y para profundizar en la investigación se realiza un contraste de las tipologías ciudadanas con los estilos de vida de la población, que busca incorporar la dimensión consumo en la validación de las brechas entre la demanda y la oferta. Con ello se reconoce la importancia que tiene para el estudio los resultados emanados a partir del producto Mosaic de la empresa Experian y la oportunidad de poder evidenciar, reconocer y complementar los resultados del ejercicio para hacer más fuerte la hipótesis planteada.
Resumo:
El objetivo del presente trabajo es el estudio, diseño e implementación de una herramienta software, con interfaz gráfica de usuario, que permita aplicar diversas técnicas de análisis de textos de forma simple. Las técnicas de análisis, que serán implementadas en la herramienta, extraerán información de textos escritos en un lenguaje humano, es decir un lenguaje no artificial, y se le presentará al usuario. La herramienta permite la obtención de tres tipos de información: categorías a las que pertenece un texto, dentro de un conjunto de categorías predeterminadas; grupos de textos que son similares entre sí; y la polaridad de opinión expresada en un texto hacia el tema u objeto del que trata, que puede ser neutra, positiva o negativa.---ABSTRACT---The aim of this work is to study, design and implement a software tool, with graphical user interface, which will enable a user to easily apply various text analysis techniques. The techniques implemented in the tool will extract information from texts written in natural language, i.e. a non artificial language, and will present it to the user. The tool will extract three different types of information about a given set of texts: their categories (from a predefined set of categories), groups of similar texts, the polarity of the attitude expressed in the texts towards their topic.
Resumo:
Esta tesis doctoral tiene como objeto el acercamiento histórico-constructivo a la realidad material de las fortificaciones edificadas en el centro de la Península Ibérica durante los primeros siglos de la Edad Media. El marco geográfico se extiende desde el cauce del río Duero, delimitado por los valles de sus afluentes, el Duratón, al oeste, y el Escalote al este, hasta las cumbres del Sistema Central oriental en su entronque con el Ibérico, para descender por la falda sur de la sierra hasta los valles altos del Lozoya, Jarama y Henares. Siguiendo las demarcaciones actuales, el marco de estudio ocupa parcialmente las provincias de Soria, Guadalajara, Madrid, Segovia, Burgos y Valladolid. Desde un punto de vista cronológico, el espacio temporal se inicia con la conquista musulmana de la Península Ibérica de 711 y culmina con la incorporación definitiva al reino de Castilla de las zonas estudiadas, en torno al año 1150. Se trata de un espacio de transición, tanto desde el punto de vista social como ecológico. Los territorios al sur de la sierra correspondían a los confines septentrionales de la Marca Media de al-Andalus, mientras que la falta norte, los extrema durii, fueron un territorio escasamente poblado y desorganizado, foco de la expansión de los reinos de León y Castilla y zona de conflicto con al-Andalus a principios del siglo X. Un territorio tan amplio y heterogéneo, unido a una compleja evolución histórica y social y la parquedad de las fuentes escritas, ha necesitado de un acercamiento con una metodología de tipo mixto, en la que han convergido las técnicas propias de la documentación histórica, de la arqueología y de la historia de la construcción. Esta metodología parte de un exhaustivo vaciado bibliográfico, tras lo cual se planteó una prospección arqueológica dirigida que permitió realizar un catálogo de elementos fortificados en el área de estudio susceptibles de contener fases altomedievales. Sobre cada uno de los elementos localizados se realizó una toma de datos de tipo gráfico métrico y constructivo. Cruzando los datos recabados en cada edificio con técnicas propias de la estratigrafía e historia de la construcción se identificaron y aislaron las fases de la cronología analizada. Entre las fortificaciones que evidenciaron fases altomedievales y atendiendo a su singularidad, representatividad y calidad estratigráfica se ha profundizado en el análisis de nueve casos de estudio: el conjunto fortificado de Atienza, el castillo de Cogolludo, el recinto amurallado de Buitrago de Lozoya, el castillo de Caracena, la iglesia parroquial de la Inmaculada Concepción de Mezquetillas, la alcazaba de Gormaz, la torre de San Andrés de Sepúlveda, la iglesia parroquial de San Miguel de Ayllón y la fortificación rupestre de Alcolea de las Peñas. La investigación ha servido para dos fines principales. El primero se centra en el aspecto material. En este sentido no solo se ha identificado la presencia o ausencia de fases altomedievales en cado uno de los edificio lo que ha permitido realizar una lectura territorial, la caracterización de las diferentes técnicas y materiales constructivos y valorar la posibilidad de establecer una cronotipología. El segundo se centra en aspectos históricos y sociales. La vinculación de estos restos materiales con la documentación histórica ha devenido en un medio para conocer la historia de las gentes que construyeron estos edificios, la motivación que les llevó a emprender tales proyectos, así como el contexto en el que cada una de estas fortificaciones desempeñó las funciones para las que fue creada. Este estudio ha puesto de manifiesto la ruptura que supuso la ocupación estatal de esta zona por parte del ejército cordobés desde mediados del siglo X, tanto desde el punto de vista social como constructivo. Se ha podido documentar materialmente esta ocupación tras la restauración de Medinaceli, en torno a 946, y la sucedida tras la toma de Sepúlveda por parte de Almanzor en 984, diferenciándose claramente las técnicas constructivas propias de este momento, ejecutadas directamente por talleres foráneos, procedentes de Córdoba y Toledo. La posición estratigráfica de estas fábricas diagnósticas ha permito identificar fases constructivas inmediatamente anteriores y posteriores a este momento. También se ha podido comprobar la hipótesis inicial en relación a la pérdida de conocimientos constructivos durante el final de la Antigüedad y los primeros siglos del medievo en la zona estudiada. La sillería y la explotación de canteras, así como el ciclo productivo del ladrillo por completo, son recuperados sin recurrir a un sustrato tecnológico local, propiciados de manera efímera por la ocupación califal. Cuando se produce el desmembramiento del califato a partir del año 1010 estas técnicas se vuelven a abandonar. A finales del siglo XI y principios del siglo XII se produce un nuevo cambio en la construcción, recuperándose de nuevo estas técnicas de la mano del románico y del establecimiento de la red parroquial diocesana. En una zona y periodo histórico apenas explotado por la investigación, esta tesis doctoral busca no solo establecer una metodología de trabajo sino sentar las bases para futuros estudios, tanto desde el punto de vista particular, profundizando en el estudio constructivo y estratigráfico de cada uno de los elementos recogidos, como en otros aspectos más trasversales. ABSTRACT This doctoral thesis has a constructive historical material approach to the reality of the fortifications built in the center of the Iberian Peninsula during the first centuries of the middle Ages. The geographical framework extends from the Duero´s riverbed, bounded by the valleys of its tributaries, the Duratón on the west, and the Escalote on the east, until to the peaks of the eastern Central System at its connection with the Iberian, to descend the hillside of the mountain range to the high valleys of Lozoya, Jarama and Henares. Following the current demarcations under this framework study, partially cover the provinces of Soria, Guadalajara, Madrid, Segovia, Burgos and Valladolid. From a chronological point of view, the temporal space began with the Muslim conquest of the Iberian Peninsula in 711 A.D and ends with the final incorporation into the Kingdom of Castile in the studied areas, around the year 1150 A.D. It is a transitional gathering point, both socially and ecologically. The southern territories of the Sierra or mountain range corresponded to the northern boundaries of the Middle mark of al- Andalus , while the northern missing, the extrema Durii , were a disorganized sparsely populated territory and point of the expansion of the kingdoms of Leon and Castile and zone of conflict with al- Andalus at the beginning of the tenth century. Such a wide and diverse territory, connected with a complex historical, social evolution and the lack of written sources , has required an approach with a mixed type methodology, which have converged the techniques of historical documentation of the archeology and building history. This methodology comes from a comprehensive bibliographic study, after which an archaeological survey was directed that allowed building a fortified elements ‘catalog in the study area likely to contain high medieval period phases were raised. On each of the elements located one metric data collection and constructive graphic type was performed. Checking against the data collected in each building with its own history of stratigraphy and construction techniques and finally, they were identified and isolated the timing analysis phases. Among the early medieval fortifications that showed high period Medieval phases and according to its uniqueness , representativeness and stratigraphy’s quality of the nine case studies : the fortified complex of Atienza, Cogolludo Castle, the Buitrago de Lozoya´s walled enclosure , the Caracena´s castle , the Mezquetillas´ parish church, the Gormaz´s fortress, the San Andres toser in Sepulveda, the church of San Miguel de Ayllón and the Alcolea de las Peñas´ rock fortress. This research study has served two main purposes. The first focuses on the material side. In this sense it does not only identified the presence or absence of early medieval period phases in each one of the building, which has allowed a territorial reading and the characterization of the different construction techniques and materials, but it also assess the possibility of establishing a chrono–typology. The second focuses on historical and social aspects. The bound of these materials remains with the historical documentation has become a means to know the history of the people who built these buildings, the motivation that led them to undertake such projects as well as the context in which each of these fortifications played the functions for which it was created. This study has revealed the breach that led to the state occupation of the Cordovan army in this area by since mid-tenth century, from the social point of view and also from the structural one. It has been materially document this occupation after the restoration of Medinaceli, around 946, and succeeded after taking Sepulveda by Almanzor in 984, clearly differentiating their own building techniques currently implemented directly by foreign workshops, from Cordova and Toledo. The stratigraphic position of these factories has made it possible to identify earlier and later construction phases at this time. It has also been able to verify the initial hypothesis in relation with constructive knowledge loss during late antiquity and early medieval centuries in the studied area. Also ashlar, masonries as well as the brick production is recovered without resorting to a local technological substrate, fleetingly brought about by the Caliphate occupation. When the dismemberment of the Caliphate is produced from the year 1010 these techniques were abandoned again. In the late eleventh and early twelfth century these techniques are recovered from Romanesque and a new change came, also from the establishment of the diocesan parish network. In one historical period that has been hardly exploited by research, this thesis seeks not only to establish a working methodology but lay the groundwork for future studies, both from the particular point of view, paying special attention in the constructive and stratigraphic studies of each of the evidence collected , and additionally in other more transversal aspects.
Resumo:
Hoy en día existe una preocupación creciente por la calidad del software entregado en los proyectos que se realizan a lo largo del mundo. El trabajo de fin de grado que va a ser desarrollado en estas páginas pretende demostrar la importancia de la realización de tests funcionales durante el proceso de desarrollo de software para que el proyecto alcance la calidad requerida tan demandada en estos días. Para ello, después de una pequeña introducción a la historia del software, se presentarán y compararán diversos tipos de metodologías de desarrollo de software, tanto pesadas (cascada, espiral, etc.) como ágiles (Extreme Programming y Scrum), se enfatizará en dichas metodologías ágiles y cómo el proceso de testing y control de calidad encaja perfectamente con la filosofía de las citadas metodologías ágiles. Se desarrollará una explicación del papel de QA en el desarrollo de software, asi como una explicación de los tipos de test existentes, y las herramientas, tecnologías y patrones que existen a disposición de aquellos que quieran desempeñar el papel de QA. Para complementar el punto de vista teórico de este trabajo se presentará un caso práctico real realizado en la empresa bq bajo una metodología Scrum. Dicho caso práctico muestra el uso de ciertas herramientas y su aporte para el control de calidad del proyecto bajo desarrollo, demostrando su importancia. Se realizará énfasis en el proceso de automatización de ciertas baterías de test (llamadas test suites), mostrando desde el planteamiento inicial de las diferentes historias de usuario y la batería de test, pasando por la elección de las tecnologías más adecuadas para la elaboración de los test hasta llegar al lanzamiento de dicha batería de pruebas y la comprobación de éstas. El punto de vista práctico quedará complementado por una explicación del framework nightwatch.js, framework utilizado en el desarrollo del proyecto en bq para la automatización de test funcionales. Esta explicación comprenderá tanto la configuración y uso del framework como el uso de patrones y la estructura de las pruebas. ABSTRACT Nowadays there is a growing concern about the Quality of the software delivered in the projects that are made all around the world. This final project will try to prove the importance of performing functional tests during the Software Development Process in order to be able to reach the demanded Quality. To fulfill this objective, different types of Software Development methodologies will be presented and compared. Heavy methodologies (waterfall, spiral methodologies, etc.) as well as agile methodologies (Extreme Programming and Scrum). There will be an emphasis in the second kind (agile methodologies) and how the testing and quality assurance process fits perfectly in their philosophy. A deep explanation of the role that Quality Assurance holds on software development will be presented, as well as an explanation on the current types of testing and an explanation of the different tools; technologies and patrons that exist to help anyone who wants to perform the role of QA. To complement the theoretical perspective of this work a real case study, performed at the company bq under a Scrum methodology, will be presented. The mentioned study covers the use of certain tools and their input for the quality assurance of the project under development, proving its relevance. Emphasis will be made in the process of conducting a set of tests (called test suite), showing from the initial approach of the different users stories and the set of tests, going through the choosing of the most suitable technologies for the tests development, and ending with the performance of this battery of tests and their checkout. The practical point of view will be complemented by a deep explanation of the creation process using the nightwatch.js automated test framework, used in the project in bq. This explanation will cover both the configuration and use of the framework as the use of patterns and structure of the tests.
Resumo:
La extensión agraria entendida como transferencia de tecnología que tuvo su auge en la llamada Revolución Verde, con el paso del tiempo empezó a mostrar serias deficiencias en su objetivo de lograr que los agricultores asumieran las nuevas tecnologías, esto motivo un continuo trabajo de investigación en el área que ha generado una serie de modelos y enfoques. Sin embargo, a pesar que mucho ha cambiado, aún no se logra responder adecuadamente a la necesidad de cambio e innovación que tienen los pequeños productores de los países en desarrollo. El presente trabajo tiene como objetivo proponer un modelo para el desarrollo de la producción agrícola en el marco de un trabajo integrado sobre el territorio. Para esto se ha analizado los cambios referentes a los procesos de desarrollo rural y como éstos han impactado directamente en la forma en la que se concibe la extensión. En este recorrido podemos ver con claridad cómo los procesos de desarrollo que partían de un modelo exógeno, van cediendo a procesos endógenos y neo-endógenos, en donde el territorio tiene un valor fundamental. Se plantea que tanto la globalización como el Cambio Climático constituyen nuevos desafíos para el desarrollo rural. Posteriormente, en el análisis de la extensión agropecuaria en el mundo, se ha podido observar como la extensión ha ido cambiando hacia procesos más participativos y horizontales, introduciéndose en ella también los conceptos de innovación y de sistemas, como la posibilidad de comprender su complejidad. Al hacer el recorrido de la Extensión Agraria en el Perú se puede visualizar como, al igual que en el mundo, tuo un periodo de apogeo pero seguido de un periodo de crisis que terminó por eliminarla del espacio público. Actualmente los servicios de extensión en el Perú se manejan por entidades privadas, gobiernos locales y proyectos especiales, pero ninguno de ellos llega realmente al pequeño productor, que constituye la población más importante en países como el Perú. Este trabajo plantea un modelo para responder a este contexto, el cual se basa en tres enfoques de diferentes ámbitos: el Desarrollo Económico Local, El metamodelo WWP (Working with people) y los sistemas de innovación agrícolas. El modelo plantea un trabajo en cuatro componentes a señalar: (1) Planificación basada en herramientas técnicas y entendida como aprendizaje social, (2) Fortalecimiento del Capital Social ya existente, (3) Servicios de extensión con nuevas tecnologías y (4) Acompañamiento a los productores en el mercado. En este modelo, una consideración muy especial la tiene la entidad articuladora o bróker del presente sistema, el cual es una entidad que se encarga de activar y mantener el sistema, tomando en consideración la importancia del fortalecimiento de las redes sobre el territorio. La aplicación de este modelo se realizó en cuatro distritos de la provincia de Aymaraes (Región Apurimac) que se encuentran formando parte de la cuenca del Río Pachachaca. Para verificar la idoneidad del modelo en el fortalecimiento de las actividades agropecuarias, se realizó un análisis de una línea de base y de una línea de salida, estableciendo una serie de indicadores. Se realizó también un análisis ex – post para determinar las posibilidades de sostenibilidad del modelo. Se concluyó luego de la aplicación que el modelo tiene una serie de condiciones importantes para la eficacia y la sostenibilidad de los procesos de desarrollo de las actividades agropecuarias, aunque es necesario establecer algunos requisitos básicos para el funcionamiento de la propuesta, tales como la presencia de un actor que pueda actuar como articulador y la necesidad de trabajar a un nivel provincial en lugar de local. ABSTRACT Throughout time, agricultural extension, understood as technology transfer, that had its peak during the Green Revolution, began to show serious deficiencies in its goal of making farmers assume the new technologies. This created continuous research in the area that has generated a number of models and approaches. However, although much has changed, yet it fails to respond adequately to the need for change and innovation that small producers of developing countries have. This study aims to propose a model for the development of agricultural production in the framework of an integrated work on the territory. For this purpose, this research analyzed the changes related to rural development processes and how they have directly impacted on how the extension is conceived. On this tour it can be clearly seen how the development processes that started from an exogenous model, are giving way to neo-endogenous and endogenous processes, where the territory has a fundamental value. It is proposed that both globalization and climate change pose new challenges for rural development. Later in the analysis of agricultural extension in the world, it has been observed how the extension has been changing towards more participatory and horizontal processes, also introducing in it the innovative and systems concepts, as well as the ability to understand its complexity. When making the path of the agricultural extension in Peru, it can be seen how, same as it happened in the world, it had peak period that was followed by a crisis that eventually eliminated it from the public space. Currently, the extension services in Peru are managed by private entities, local governments and special projects, but none of them actually reach the small producer, who represents the most important population in countries like Peru. This paper proposes a model to respond to this context, which is based on three approaches of different areas: Local Economic Development, WWP metamodel (Working with people) and the agricultural innovation systems. The model presents a work in four parts to note: (1) Planning based in technical tools and understood as social learning, (2) Strengthening of the existing social capital, (3) Extension services with new technologies and (4) Support of producers in the market. In this model, special consideration is given to the coordinating entity or broker of this system, which is an entity that is responsible for activating and maintaining the system, taking into account the importance of strengthening networks in the territory. The application of this model was conducted in four districts of the Aymaraes province (Apurimac Region) which are part of the Rio Pachachaca watershed. To verify the suitability of the model in strengthening agricultural activities, an analysis of a baseline and a starting line was made, establishing a series of indicators. An analysis ex-post was also performed to determine the possibilities of sustainability of the model. After the application it was concluded that the model has a number of important conditions for the effectiveness and sustainability of development processes of agricultural activities, although it is necessary to establish some basic requirements for the operation of the proposal, such as the presence of an actor who can act as an articulator and the need to work at a provincial level rather than locally.
Resumo:
El contrato de maternidad subrogada está declarado nulo de pleno derecho en España en base a la Ley 14/2006 referida a las Técnicas de Reproducción Humana Asistida. En primer lugar, afrontaremos el problema del reconocimiento de la inscripción de la filiación de los menores nacidos por esta técnica, para luego, con el fin de analizar el tema objeto de este trabajo, estudiar si existe derecho a las prestaciones por maternidad en el supuesto de la maternidad subrogada. De esta manera, tras un análisis de la doctrina científica y jurisprudencial, exponemos la necesidad de regulación del contrato de maternidad subrogada en España.
Resumo:
En el presente trabajo fin de máster se pretende plantear una metodología que permita realizar un análisis de riesgo de inundación por avenidas torrenciales en una zona concreta de la Isla de Mallorca (Islas Baleares), el Pla de Sant Jordi, en el cual se vienen dando problemas de inundación de forma reiterada desde los años 70. Se propone afrontar el problema desde el método de análisis hidrológico-hidráulico con el fin de obtener una cartografía de la zona de estudio donde aparezcan indicadas las áreas susceptibles o peligrosas a ser inundadas. Todo esto se llevará a cabo empleando las herramientas que nos ofrecen las TIG, aprovechando el potencial que tienen estas en la correlación espacial de los elementos del territorio. Sus aplicaciones en el campo de los riesgos naturales son indispensables para obtener unos resultados óptimos, y poder basar en ellos, la toma de decisiones fundamentales por parte de los organismos públicos o privados para proteger a la población de cara a los desastres naturales.