477 resultados para Interfaz


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente trabajo es el estudio, diseño e implementación de una herramienta software, con interfaz gráfica de usuario, que permita aplicar diversas técnicas de análisis de textos de forma simple. Las técnicas de análisis, que serán implementadas en la herramienta, extraerán información de textos escritos en un lenguaje humano, es decir un lenguaje no artificial, y se le presentará al usuario. La herramienta permite la obtención de tres tipos de información: categorías a las que pertenece un texto, dentro de un conjunto de categorías predeterminadas; grupos de textos que son similares entre sí; y la polaridad de opinión expresada en un texto hacia el tema u objeto del que trata, que puede ser neutra, positiva o negativa.---ABSTRACT---The aim of this work is to study, design and implement a software tool, with graphical user interface, which will enable a user to easily apply various text analysis techniques. The techniques implemented in the tool will extract information from texts written in natural language, i.e. a non artificial language, and will present it to the user. The tool will extract three different types of information about a given set of texts: their categories (from a predefined set of categories), groups of similar texts, the polarity of the attitude expressed in the texts towards their topic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el año 2014 se publicó, bajo mandato de la Comisión Europea, la Norma Europea EN 301 549, titulada “Requisitos de accesibilidad de productos y servicios TIC aplicables a la contratación pública en Europa”. El objetivo de dicha norma es que los productos o servicios TIC (Tecnologías de la Información y la Comunicación) adquiridos por cualquier administración pública europea puedan ser utilizados por personas con diversas características y capacidades, incluyendo a personas con discapacidad. La norma EN 301 549 es compleja, ya que contiene más de 200 requisitos y recomendaciones, que se aplican o no a un producto o servicio TIC en función de las características de dicho producto o servicio. Por ello se ha planteado, desde el Grupo de Investigación en Tecnología Informática y de las Comunicaciones (CETTICO), el desarrollo de una herramienta de soporte a la evaluación del cumplimiento de la norma. La herramienta permitirá a grupos de trabajo anotar los resultados de la evaluación de accesibilidad de un producto o servicio TIC siguiendo los requisitos de la norma Europea EN 301 549. Este trabajo de Fin de Grado se centra en el diseño y codificación del cliente web de la herramienta. Se parte de los resultados de un TFG y un practicum anteriores. En el TFG realizado por Laura Elorrieta [Elorrieta, 2014], se diseñó la interacción del sistema y se evaluó su grado de usabilidad. En el practicum [Montero, 2015], posterior al TFG de Laura Elorrieta, se eligieron las tecnologías web que se iban a utilizar y se realizó el diseño y la implementación mediante prototipos iterativos de la gestión de proyectos de evaluación. El trabajo que se ha realizado en el TFG ha consistido en el diseño de la interfaz de usuario analizando los cambios a realizar en el diseño, debido a los errores de usabilidad conocidos, y la implementación del prototipo funcional de la herramienta. Junto con la parte servidor del TFG de mi compañero Rubén Ortiz Burgos y la interfaz de usuario de este TFG se ha obtenido una aplicación web para realizar evaluaciones de accesibilidad de productos o servicios TIC siguiendo los requisitos de la norma EN 301 549. El prototipo funcional contiene diez páginas web que recogen las diferentes acciones y tareas que pueden realizar los usuarios en función del rol que desempeñen. EL diseño y la implementación se han llevado a cabo empleando las tecnologías web HTML5, CSS3, JavaScript, jQuery y las librerías de Foundation frontend framework.---ABSTRACT---In 2014, under the European Commission mandate, the European standard EN 301 549 has been published under the title “Accessibility requirements applicable to ICT products and procurement services in Europe”. The goal of this standard is that the products or services ICT (Information Communication Technology) acquires by every European public administration can be used by every person with different characteristics and capacities, including those with disability. The rule EN 301549 is very complex, since it has more than 200 requirements and recommendations that can be or not applied to an ICT product or service based on its characteristics of the given product or service. That’s why a development of a support tool has been proposed to the rating of the compliance of the rule, by the Research Group of Informatics Technology and Communication. This tool will allow working groups to record the results of the compliance of accessibility of a product or service following the requirements of the European Standard EN 301549. This Final Degree Work focuses in the design and the coding of the web customer of this tool. The results of a TFG and previous practicums have been used for this. The TFG performed by Laura Elorrieta [Elorrieta, 2014], the interaction of the system was designed and degree of usability was evaluated. In the practicum [Montero, 2015], after the TFG Laura Elorrieta, web technologies used were chosen and the design and implementation were performed using iterative prototyping project management evaluation. The work done on the TFG was to design the users interface to perform analyzing changes in design due to errors known usability and working prototype implementation of the tool. Together with the server part of the TFG my partner Rubén Ortiz Burgos and the user interface done of this TFG it has obtained a web application for the conduct of evaluations accessibility of products or services ICT following the requirements of the EN 301 549. The functional prototype contains ten web sites that collect the various activities and tasks that users can perform based on the role they perform. The design and implementation have been carried out using the technologies web HTML5, CSS3, Java Script, jQuery and the libraries of Foundation fronted framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El autor de este proyecto es miembro reciente de la asociación SoloBoulder, dedicada a la modalidad de escalada boulder, noticias y actualidad, contenido multimedia, promoción de un equipo de escaladores y defensa de valores medioambientales en la montaña. El principal canal de distribución de contenidos es una página web existente previa a este proyecto. La asociación ha detectado una escasez y mala calidad de recursos en internet en cuanto a guías de zonas donde poder practicar el boulder. Tal circunstancia impulsa la iniciativa de este proyecto fin de carrera. El objetivo general es el desarrollo de una nueva aplicación que proporcione a los usuarios a nivel mundial una guía interactiva de boulder y otros puntos de interés, una red social que permita la creación cooperativa y orgánica de contenido, y servicios web para el consumo de la información desde otras plataformas u organizaciones. El nuevo software desarrollado es independiente de la página web de SoloBoulder previa. No obstante, ambas partes se integran bajo el mismo domino web y aspecto. La nueva aplicación ofrece a escaladores y turistas un servicio informativo e interactivo de calidad, con el que se espera aumentar el número de visitas en todo el sitio web y poder ampliar la difusión de valores medioambientales, diversificar las zonas de boulder y regular las masificadas, favorecer el deporte y brindar al escalador una oportunidad de autopromoción personal. Una gran motivación para el autor también es el proceso de investigación y formación en tecnologías, patrones arquitecturales de diseño y metodologías de trabajo adaptadas a las tendencias actuales en la ingeniería de software, con especial curiosidad hacia el mundo web. A este respecto podemos destacar: metodología de trabajo en proyectos, análisis de proyectos, arquitecturas de software, diseño de software, bases de datos, programación y buenas prácticas, seguridad, interfaz gráfica web, diseño gráfico, Web Performance Optimization, Search Engine Optimization, etc. En resumen, este proyecto constituye un aprendizaje y puesta en práctica de diversos conocimientos adquiridos durante la ejecución del mismo, así como afianzamiento de materias estudiadas en la carrera. Además, el producto desarrollado ofrece un servicio de calidad a los usuarios y favorece el deporte y la autopromoción del escalador. ABSTRACT. The author of this Project is recent member of the association SoloBoulder, dedicated to a rock climbing discipline called bouldering, news, multimedia content, promotion of a team of climbers and defense of environmental values in the mountain. The main content distribution channel is a web page existing previous to this project. The association has detected scarcity and bad quality of resources on the internet about guides of bouldering areas. This circumstance motivates the initiative of this project. The general objective is the development of a new application which provides a worldwide, interactive bouldering guide, including other points of interest, a social network which allows the cooperative and organic creation of content, and web services for consumption of information from other platforms or organizations. The new software developed is independent of the previous SoloBoulder web page. However, both parts are integrated under the same domain and appearance. The new application offers to climbers and tourists a quality informative and interactive service, with which we hope to increase the number of visits in the whole web site and be able to expand the dissemination of environmental values, diversify boulder areas and regulate the overcrowded ones, encourage sport and offer to the climber an opportunity of self-promotion. A strong motivation for the author is also the process of investigation and education in technologies, architectural design patterns and working methodologies adapted to the actual trends in software engineering, with special curiosity about the web world. In this regard we could highlight: project working methodologies, project analysis, software architectures, software design, data bases, programming and good practices, security, graphic web interface, graphic design, Web Performance Optimization, Search Engine Optimization, etc. To sum up, this project constitutes learning and practice of diverse knowledge acquired during its execution, as well as consolidation of subjects studied in the degree. In addition, the product developed offers a quality service to the users and favors the sport and the selfpromotion of the climber.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta investigación se han analizado morteros de cal de cronología romana en el interior de la Península Ibérica. Para ello, se seleccionó una serie de muestras procedentes de diversos yacimientos, y de estructuras de carácter industrial. Estas muestras presentan aditivos cerámicos y conglomerantes de cal, como característica principal. Desde un principio el esfuerzo debía de centrarse en los fragmentos cerámicos presentes en los morteros. Para ello se documentaron varios morteros con aditivos cerámicos, a fin de conocer sus características básicas (componentes, distribución, micro-estratigrafía, granulometría, etc.). Por ello, y una vez tomadas las muestras, ésta fueron tratadas y procesadas para desarrollar una primera fase de estudio por medio de macroscopía. Se obtuvieron buenos resultados en cuanto a la caracterización visual de los morteros, localizando y documentando los fragmentos cerámicos. Durante la observación de dichos aditivos se observó que los fragmentos cerámicos tenían unas coronas o anillos de coloración que recorrían el borde, justo al contacto con la matriz de cal. Fueron seleccionados algunos fragmentos en los que eran más visibles dichos anillos. A fin de conocer la posible relación entre algunos yacimientos cercanos y la presencia de dicho anillo cromáticos se desarrolló una microscopía óptica polarizada, realizando láminas delgadas de las muestras y sobre los fragmentos cerámicos más determinantes, en concreto de una serie de enclaves del valle del Henares. Además de caracterizar microscópicamente los morteros, se observó que los anillos no eran un defecto visual ni una alteración física, producida tal vez por la extracción, la fase del corte o por la cocción de la cerámica. Tras analizar varios ejemplares se pudo apreciar que esos anillos eran habituales en todas las muestras y que se presentaban de diferente manera, es decir, que se observaban en granos cerámicos de diferentes características físicas (cochura, tamaño, situación con respecto del conglomerante, etc.). A fin de conocer los aspectos químicos de dicha alteración se seleccionó un grupo de muestras en las que los resultados macroscópicos habían sido muy claros, y en las que la microscopía óptica polarizada había determinado en los bordes, áreas adecuadas para otros análisis. Se realizó un mapeado o mapping de elementos químicos, a fin de saber qué podía estar sucediendo en esa interfaz entre el fragmento cerámico y la matriz de cal. Gracias a los resultados obtenidos se comprobó que existía una acumulación potencial de calcio tanto en el interior de los granos cerámicos como en el exterior, justo en la zona de contacto con el conglomerante, formando manchas que recorrían longitudinalmente el borde. Estos datos fueron muy útiles para llevar a cabo la siguiente fase de estudio, que permitiría conocer puntualmente qué estaba sucediendo químicamente en esa zona de contacto. Finalmente y con el objetivo de describir química y puntualmente este efecto en las adiciones cerámicas, se volvió a seleccionar una serie de muestras, escogidas esta vez en función de los granos cerámicos que cumpliesen unas variables estadísticas. Se eligieron granos con distintos tipos de cocciones, así como granos con tamaños diversos y granos con aditivo ceniciento en la matriz de cal, pensando que podrían ser las variables más útiles de interpretar de existir algún tipo de cambio químico entre la arcilla cocida y la matriz de cal. Tales variables se adaptaron a un sistema estadístico multi-varial y geométrico, con el objetivo de sintetizar los resultados y visualizar de forma óptima los datos en conjunto, como se ha comentado en varias ocasiones en este trabajo. Una vez seleccionados los granos por variables se procedió a realizar un análisis lineal y espectral semi-cuantitativo de SEM-EDX, con el que se caracterizaba químicamente una sección lineal del grano, desde la matriz de arcilla cocida de la cerámica hasta la matriz de cal –del interior al exterior del grano- pasando por el centro de la banda de reacción. Este análisis permitió determinar que se había producido una serie de cambios químicos porcentuales en los granos de cerámica. Dichos cambios se resumen en un incremento global de los porcentajes de calcio en el interior de las bandas de reacción de la cerámica, desde el borde mismo del anillo hasta el exterior. Así también se observaron picos porcentuales en el interfaz del fragmento cerámico con la matriz de cal, lo que confirmaba los resultados obtenidos por medio del mapping. Globalmente en todas las muestras se apreció un hombro en las gráficas de calcio a su paso por la zona de afección del anillo de reacción. Los restantes porcentajes de magnesio, silicio y aluminio se mantienen normales. En esta tesis se ha confirmado que dicho incremento global de calcio se acentúa en las muestras en donde no hay cenizas en la matriz de cal. Los casos correspondientes a estos granos sufren un incremento mayor que en el resto. La segunda variable que sufre un mayor incremento de calcio es la que corresponde a granos con buena cocción de la arcilla. Por lo tanto, parece que la tercera variable, la que corresponde con el tamaño del fragmento cerámico, no es decisiva. Por lo tanto, teniendo en cuenta la prueba visual de los anillos de reacción, y atendiendo a los resultados químicos, podríamos pensar que ese incremento de calcio en la banda de reacción de los fragmentos cerámicos se debió a una absorción de calcio en el interior de la arcilla cocida en la fase inmediatamente previa al fraguado, incluso durante el apagado de la cal. Es en este punto donde estaría la clave del cambio químico que se produce en esta interfaz, el calcio sílice-aluminato del que algunos autores ya han investigado. Esta absorción de calcio en el interior del grano no vendría sola, sino que generaría una costra de cal en el interfaz exterior de la cerámica, la cual ha sido observada químicamente por mapping y mineralógicamente por medio de microscopía óptica de polarización. La consecuencia de estos resultados es, primero, la mejora de nuestro conocimiento general acerca del factor hidráulico en los morteros. Asimismo se aprecia que la incorporación de materiales orgánicos como cenizas, puede alterar los porcentajes de calcio en el interior de los aditivos cerámicos, por lo que habría que sopesar, en trabajos futuros, si este tipo de material es adecuado o no en las mezclas destinadas a la restauración, así como seguir indagando en las propiedades de los morteros con la incorporación de aditivos orgánicos. Desde el punto de vista de la catalogación de los suelos industriales hidráulicos de época romana, además de mejorar la documentación incorporando micro-estratigrafías y granulometrías, la investigación de este material histórico constructivo mejora en cuanto a que se incorporan ensayos sencillos, que facilitan incluso la peritación de un estado de conservación por medio de una lupa binocular. Arqueológicamente hablando, es muy interesante correlacionar fábricas diferentes de estructuras situadas o bien en un mismo yacimiento, o bien en una misma área regional. Los estudios de caracterización y micro-estratigrafía no sólo aportan datos nuevos de cara a la restauración de morteros, sino que crean la posibilidad de generar patrones constructivos que sirvan de fósiles-guía para datar relativamente a unas estructuras o a otras. En lo referido a los resultados obtenidos en los diferentes complejos arqueológicos se ha observado una diferencia entre los morteros destinados a piletas y cubetas con respecto a los suelos industriales de uso indeterminado. La muestra correspondiente al yacimiento de Las Arenas no dispone de ninguna micro-estratigrafía, como sí por el contrario en las muestras obtenidas en Rotonda de Mejorada, Val de la Viña y La Magdalena. En estos enclaves las estructuras presentan grandes similitudes, con diferentes niveles constructivos empleando morteros de cal con áridos y gravas en las capas interiores, y áridos con adiciones cerámicas en las exteriores. En lo relativo a la granulometría las adiciones cerámicas de las muestras de Val de la Viña y La Magdalena presentan varias coincidencias en cuanto al tamaño de los granos y la distribución. Asimismo, de las muestras tomadas en La Magdalena, existe una gran diferencia entre las muestras MG1, MG2, MG3 y MG4 con respecto a las muestras MG5 y MG6, correspondientes éstas últimas a un mortero con fragmentos cerámicos de gran tamaño. Las estructuras EMG1 y EMG2, correspondientes a una cubeta y una pileta de La Magdalena, guardan similitud en lo referido a la micro-estratigrafía y a la granulometría. Se ha determinado que su función, así como su fabricación, debieron estar vinculadas a un mismo contexto cronocultural. Química y mineralógicamente, las muestras presentan características iguales, con presencia de un conglomerante de cal con áridos y aditivos cerámicos de diferentes cochuras. Destaca la muestra de Las Arenas, con un tamaño de los fragmentos cerámicos muy superior al resto, seguido de la estructura EMG3 de La Magdalena. Las muestras restantes de éste enclave, junto con las muestras recogidas en Val de la Viña y Rotonda de Mejorada presentan condiciones similares. En conclusión, los datos revelan que existían diferentes fábricas destinadas a distintas finalidades, y que las estructuras industriales empleaban aditivos cerámicos para la manipulación de productos con líquidos, de distintas densidades pero que requerían de cierto grado de hidraulicidad. ABSTRACT Lime Roman mortars from the Iberian Peninsula has been analyzed in this reesearch. A group of samples were selected from some sites and all the samples come from industrial structures. All this samples show ceramic additives. From the start, the effort was centered in the pieces of pottery that were found in the mortars. The samples were treated and processed to develop a first phase of the research using macroscopy. With this technique, great results were achieved in the characterization of mortars, the microstratigraphy and the location of the ceramic pieces. While observing these pieces, it was seen that the fragments of pottery had a ring bordering the piece. The pieces with the bigger and more vivid rings were chosen and they were analyzed by a polarized light microscope. The mortars were characterized microscopically and it also showed that the rings were not a physical alteration or a visual defect. After some more tests, the rings were a chemical change associated with the hydraulicity of the mortar. The best samples were selected and mappings of their chemical elements were performed in order to know what could be happening in the interface between the ceramic matrix fragment and lime. With the results obtained it was found that there was a potential; both calcium accumulation within the ceramic grains and outside, just in the area of contact with the binder, forming spots longitudinally along the edge. These data were very useful for carrying out the next phase of study, which would meet promptly what was happening chemically in the area of contact. Another group of samples were taken, and this time focused on ceramic grains that met a statistical variables. Grains were chosen with two types of cooking as well as grains with different sizes and grains with ash additive in the matrix of lime, thinking that might be the most logical to be some sort of chemical change between the baked clay and lime array variables . Such variables were adapted to a multi-varial and geometric statistical system in order to synthesize the results and optimally display the data together, as mentioned several times in this work. After selecting the variables grains proceeded to perform a linear and spectral analysis SEM-EDX. This analysis led to determine that the chemical changes were graduals. These changes are summarized in an increase in the percentages of calcium inside the reaction rim of ceramics, from the edge to the outer ring. So percentage increasing is also observed at the interface of the ceramic matrix fragment with lime, confirming the results obtained by the mapping. Overall in all samples can be seen a shoulder in graphic calcium through the area of the ring reaction condition. The remaining percentages of magnesium, silicon and aluminum are usual. We have promptly confirmed that the increase of calcium is accentuated in samples where there is no ash and lime matrix. Cases for these grains suffer a greater increase than the rest. The second variable suffering more calcium is increased corresponding to good cooking grains with clay. Therefore, it appears that the variable size of the fragment is not critical. Therefore, considering the visual tests to the rings and their response to chemical results, we might think that increasing calcium inside the ceramic fragments was due to an injection of calcium inside clay in the run-up to the setting phase. It is at this point that would be the key to the chemical change that occurs at this interface, silica-calcium aluminate some authors have already investigated. This injection of calcium into the grain does not come alone, but generate a lime crust on the outside interface of ceramics, which we tested for mapping is real in our samples. The consequence of these results is the improvement of our understanding of historical hydraulic factor in building materials, such as mortar. For example, knowing that the incorporation of organic materials such as ash powder, may be detrimental to the injection of calcium inside the ceramic additives. Archaeologically speaking, it's very interesting to correlate different factories or structures located on a single site, or in the same regional area. Characterization studies and microstratigraphy not only provide new information to help restore mortars, but create the possibility of generating constructive patterns that serve as guide fossils to determinate the age of the structures. With regard to the results obtained in different archaeological sites it has seen a difference between mortars of pools or sinks with respect to industrial floors of undetermined use. The sample of the site of Las Arenas does not have any micro-stratigraphy, as if instead in the samples obtained in Rotonda de Mejorada, Val de la Viña and La Magdalena sites. In these settlements the structures are really similar, with different construction levels using lime mortars with aggregates and gravel in the inner layers, and ceramic aggregates as external additions. With regard to the grain size of the ceramic additions Val de la Viña and La Magdalena samples has several coincidences about the size of grains and distribution. Also, samples taken at La Magdalena, there is a difference between the MG1, MG2, MG3 and MG4 samples and the MG5 and MG6 samples, so the last corresponding to a mortar samples with larger ceramic fragments. The EMG1 and EMG2 structures, corresponding to a bucket and a pool of La Magdalena settlement, have similarities with regard to micro-stratigraphy and grain size. It has been determined that the function and manufacturing must be linked with a same chronocultural context.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde el inicio de la globalización, el aprendizaje de la lengua inglesa se ha instaurado como una necesidad. Hoy en día, con la adopción del Espacio Europeo de Educación Superior este lenguaje no sólo se impone como un requisito para los estudiantes sino que se exige un nivel B2, lo cual significa un esfuerzo mayor tanto como para el alumno como para el profesor a la hora de hacer de este ejercicio un hábito y lograr la evaluación continua de los mismos. Este proyecto intenta extender las funcionalidades de una aplicación existente llamada Illlab con ejercicios que se adapten al nivel B2 y permitan la interacción entre alumnos durante la realización de estos ejercicios. El objetivo de esta aplicación es el de desarrollar ejercicios extra en la aplicación Illlab que añadan complejidad para el aprendizaje de inglés de un nivel B2 y que además se puedan realizar actividades entre los alumnos. La idea es hacer una aplicación de preguntas y respuestas “multiple choice” con cuatro opciones por pregunta. El fuerte de este juego está en presentar material variado sobre uso de la lengua y además permitir el juego entre varios alumnos. La extensión de ILLLab se plantea como un proyecto para desarrollar interfaces y funcionalidades adicionales en la antigua aplicación. La principal funcionalidad que se añade es un juego de preguntas y respuestas con opciones múltiples para un nivel B2 y las interfaces responden a necesidades de intercambio y manejo de contenido por Internet mediante estándares aceptados en el mundo del aprendizaje digital tales como Common Cartridge o SCORM. Este proyecto simplemente adapta la aplicación para su uso en un entorno de evaluación de actividades en el cual el profesor tiene acceso a las actividades que realizan los alumnos de un curso para su posterior evaluación. Antiguamente ILLLab sólo contenía ejercicios que se llevaban a cabo en el dispositivo móvil por lo que el control de estas actividades no era posible. La mejora se presenta como una interfaz Common Cartridge para el manejo del contenido, una interfaz de comunicación sobre servicios web tipo REST y el manejo de base de datos mediante Hibernate que agrupa una serie de librerías Java para la persistencia de objetos de la base de datos. ABSTRACT. Since the onset of globalization, the learning of the English language has become as a necessity. Today, with the adoption of the European Higher Education Area this language is not only imposed as a requirement for students but a B2 level is required, which means a greater effort both to the student and teacher when it comes to make the learning exercise a habit and achieve continuous evaluation of students. This project aims to extend the functionality of an existing application called Illlab with an exercise that suits the B2 level and allow interaction between students while performing these exercises. The purpose of this application is to develop an additional exercise in the application Illlab that adds complexity for learning English at B2 level and also enables the interaction among students. The main idea is to make an application in multiple choices style with four options. The strength of this game is to present varied material on use of Enlgish and also allow play between two students. ILLLab extension is conceived as a project to develop interfaces and additional functionalities in the old application. The main functionalities added are a game of questions and answers with multiple choices for a B2 level and interfaces that meet information exchange requirements and content management over the Internet using standards adopted in the world of digital learning such as Common Cartridge or SCORM. This project simply adapts the application for its use in an activities evaluation environment in which the teacher has access to the activities performed by students in a course for further evaluation. The former versión of ILLLab contained only exercises that were carried out on the mobile device so that the evaluation of these activities was not possible. The improvement comes as a Common Cartridge interface for content management, a communication interface with REST web services and a database access using Hibernate which groups a number of Java libraries for object persistence in the database.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quizás el campo de las telecomunicaciones sea uno de los campos en el que más se ha progresado en este último siglo y medio, con la ayuda de otros campos de la ciencia y la técnica tales como la computación, la física electrónica, y un gran número de disciplinas, que se han utilizado estos últimos 150 años en conjunción para mejorarse unas con la ayuda de otras. Por ejemplo, la química ayuda a comprender y mejorar campos como la medicina, que también a su vez se ve mejorada por los progresos en la electrónica creados por los físicos y químicos, que poseen herramientas más potentes para calcular y simular debido a los progresos computacionales. Otro de los campos que ha sufrido un gran avance en este último siglo es el de la automoción, aunque estancados en el motor de combustión, los vehículos han sufrido enormes cambios debido a la irrupción de los avances en la electrónica del automóvil con multitud de sistemas ya ampliamente integrados en los vehículos actuales. La Formula SAE® o Formula Student es una competición de diseño, organizada por la SAE International (Society of Automotive Engineers) para estudiantes de universidades de todo el mundo que promueve la ingeniería a través de una competición donde los miembros del equipo diseñan, construyen, desarrollan y compiten en un pequeño y potente monoplaza. En el ámbito educativo, evitando el sistema tradicional de clases magistrales, se introducen cambios en las metodologías de enseñanza y surge el proyecto de la Fórmula Student para lograr una mejora en las acciones formativas, que permitan ir incorporando nuevos objetivos y diseñar nuevas situaciones de aprendizaje que supongan una oportunidad para el desarrollo de competencias de los alumnos, mejorar su formación como ingenieros y contrastar sus progresos compitiendo con las mejores universidades del mundo. En este proyecto se pretende dotar a los alumnos de las escuelas de ingeniería de la UPM que desarrollan el vehículo de FSAE de una herramienta de telemetría con la que evaluar y probar comportamiento del vehículo de FSAE junto con sus subsistemas que ellos mismos diseñan, con el objetivo de evaluar el comportamiento, introducir mejoras, analizar resultados de una manera más rápida y cómoda, con el objetivo de poder progresar más rápidamente en su desarrollo, recibiendo y almacenando una realimentación directa e instantánea del funcionamiento mediante la lectura de los datos que circulan por el bus CAN del vehículo. También ofrece la posibilidad de inyectar datos a los sistemas conectados al bus CAN de manera remota. Se engloba en el conjunto de proyectos de la FSAE, más concretamente en los basados en la plataforma PIC32 y propone una solución conjunta con otros proyectos o también por sí sola. Para la ejecución del proyecto se fabricó una placa compuesta de dos placas de circuito impreso, la de la estación base que envía comandos, instrucciones y datos para inyectar en el bus CAN del vehículo mediante radiofrecuencia y la placa que incorpora el vehículo que envía las tramas que circulan por el bus CAN del vehículo con los identificadores deseados, ejecuta los comandos recibidos por radiofrecuencia y salva las tramas CAN en una memoria USB o SD Card. Las dos PCBs constituyen el hardware del proyecto. El software se compone de dos programas. Un programa para la PCB del vehículo que emite los datos a la estación base, codificado en lenguaje C con ayuda del entorno de desarrollo MPLAB de Microchip. El otro programa hecho con LabView para la PCB de la estación base que recibe los datos provenientes del vehículo y los interpreta. Se propone un hardware y una capa o funciones de software para los microcontroladores PIC32 (similar al de otros proyectos del FSAE) para la transmisión de las tramas del bus CAN del vehículo de manera inalámbrica a una estación base, capaz de insertar tramas en el bus CAN del vehículo enviadas desde la estación base. También almacena estas tramas CAN en un dispositivo USB o SD Card situado en el vehículo. Para la transmisión de los datos se hizo un estudio de las frecuencias de transmisión, la legislación aplicable y los tipos de transceptores. Se optó por utilizar la banda de radiofrecuencia de uso común ISM de 433MHz mediante el transceptor integrado CC110L de Texas Instruments altamente configurable y con interfaz SPI. Se adquirieron dos parejas de módulos compatibles, con amplificador de potencia o sin él. LabView controla la estación que recoge las tramas CAN vía RF y está dotada del mismo transceptor de radio junto con un puente de comunicaciones SPI-USB, al que se puede acceder de dos diferentes maneras, mediante librerías dll, o mediante NI-VISA con transferencias RAW-USB. La aplicación desarrollada posee una interfaz configurable por el usuario para la muestra de los futuros sensores o actuadores que se incorporen en el vehículo y es capaz de interpretar las tramas CAN, mostrarlas, gráfica, numéricamente y almacenar esta información, como si fuera el cuadro de instrumentos del vehículo. Existe una limitación de la velocidad global del sistema en forma de cuello de botella que se crea debido a las limitaciones del transceptor CC110L por lo que si no se desea filtrar los datos que se crean necesarios, sería necesario aumentar el número de canales de radio para altas ocupaciones del bus CAN. Debido a la pérdida de relaciones con el INSIA, no se pudo probar de manera real en el propio vehículo, pero se hicieron pruebas satisfactorias (hasta 1,6 km) con una configuración de tramas CAN estándar a una velocidad de transmisión de 1 Mbit/s y un tiempo de bit de 1 microsegundo. El periférico CAN del PIC32 se programará para cumplir con estas especificaciones de la ECU del vehículo, que se presupone que es la MS3 Sport de Bosch, de la que LabView interpretará las tramas CAN recibidas de manera inalámbrica. Para poder probar el sistema, ha sido necesario reutilizar el hardware y adaptar el software del primer prototipo creado, que emite tramas CAN preprogramadas con una latencia también programable y que simulará al bus CAN proporcionando los datos a transmitir por el sistema que incorpora el vehículo. Durante el desarrollo de este proyecto, en las etapas finales, el fabricante del puente de comunicaciones SPI-USB MCP2210 liberó una librería (dll) compatible y sin errores, por lo que se nos ofrecía una oportunidad interesante para la comparación de las velocidades de acceso al transceptor de radio, que se presuponía y se comprobó más eficiente que la solución ya hecha mediante NI-VISA. ABSTRACT. The Formula SAE competition is an international university applied to technological innovation in vehicles racing type formula, in which each team, made up of students, should design, construct and test a prototype each year within certain rules. The challenge of FSAE is that it is an educational project farther away than a master class. The goal of the present project is to make a tool for other students to use it in his projects related to FSAE to test and improve the vehicle, and, the improvements that can be provided by the electronics could be materialized in a victory and win the competition with this competitive advantage. A telemetry system was developed. It sends the data provided by the car’s CAN bus through a radio frequency transceiver and receive commands to execute on the system, it provides by a base station on the ground. Moreover, constant verification in real time of the status of the car or data parameters like the revolutions per minute, pressure from collectors, water temperature, and so on, can be accessed from the base station on the ground, so that, it could be possible to study the behaviour of the vehicle in early phases of the car development. A printed circuit board, composed of two boards, and two software programs in two different languages, have been developed, and built for the project implementation. The software utilized to design the PCB is Orcad10.5/Layout. The base station PCB on a PC receives data from the PCB connected to the vehicle’s CAN bus and sends commands like set CAN filters or masks, activate data logger or inject CAN frames. This PCB is connected to a PC via USB and contains a bridge USB-SPI to communicate with a similar transceiver on the vehicle PCB. LabView controls this part of the system. A special virtual Instrument (VI) had been created in order to add future new elements to the vehicle, is a dashboard, which reads the data passed from the main VI and represents them graphically to studying the behaviour of the car on track. In this special VI other alums can make modifications to accommodate the data provided from the vehicle CAN’s bus to new elements on the vehicle, show or save the CAN frames in the form or format they want. Two methods to access to SPI bus of CC110l RF transceiver over LabView have been developed with minimum changes between them. Access through NI-VISA (Virtual Instrument Software Architecture) which is a standard for configuring, programming, USB interfaces or other devices in National Instruments LabView. And access through DLL (dynamic link library) supplied by the manufacturer of the bridge USB-SPI, Microchip. Then the work is done in two forms, but the dll solution developed shows better behaviour, and increase the speed of the system because has less overload of the USB bus due to a better efficiency of the dll solution versus VISA solution. The PCB connected to the vehicle’s CAN bus receives commands from the base station PCB on a PC, and, acts in function of the command or execute actions like to inject packets into CAN bus or activate data logger. Also sends over RF the CAN frames present on the bus, which can be filtered, to avoid unnecessary radio emissions or overflowing the RF transceiver. This PCB consists of two basic pieces: A microcontroller with 32 bit architecture PIC32MX795F512L from Microchip and the radio transceiver integrated circuit CC110l from Texas Instruments. The PIC32MX795F512L has an integrated CAN and several peripherals like SPI controllers that are utilized to communicate with RF transceiver and SD Card. The USB controller on the PIC32 is utilized to store CAN data on a USB memory, and change notification peripheral is utilized like an external interrupt. Hardware for other peripherals is accessible. The software part of this PCB is coded in C with MPLAB from Microchip, and programming over PICkit 3 Programmer, also from Microchip. Some of his libraries have been modified to work properly with this project and other was created specifically for this project. In the phase for RF selection and design is made a study to clarify the general aspects of regulations for the this project in order to understand it and select the proper band, frequency, and radio transceiver for the activities developed in the project. From the different options available it selects a common use band ICM, with less regulation and free to emit with restrictions and disadvantages like high occupation. The transceiver utilized to transmit and receive the data CC110l is an integrated circuit which needs fewer components from Texas Instruments and it can be accessed through SPI bus. Basically is a state machine which changes his state whit commands received over an SPI bus or internal events. The transceiver has several programmable general purpose Inputs and outputs. These GPIOs are connected to PIC32 change notification input to generate an interrupt or connected to GPIO to MCP2210 USB-SPI bridge to inform to the base station for a packet received. A two pair of modules of CC110l radio module kit from different output power has been purchased which includes an antenna. This is to keep away from fabrication mistakes in RF hardware part or designs, although reference design and gerbers files are available on the webpage of the chip manufacturer. A neck bottle is present on the complete system, because the maximum data rate of CC110l transceiver is a half than CAN bus data rate, hence for high occupation of CAN bus is recommendable to filter the data or add more radio channels, because the buffers can’t sustain this load along the time. Unfortunately, during the development of the project, the relations with the INSIA, who develops the vehicle, was lost, for this reason, will be made impossible to test the final phases of the project like integration on the car, final test of integration, place of the antenna, enclosure of the electronics, connectors selection, etc. To test or evaluate the system, it was necessary to simulate the CAN bus with a hardware to feed the system with entry data. An early hardware prototype was adapted his software to send programed CAN frames at a fixed data rate and certain timing who simulate several levels of occupation of the CAN Bus. This CAN frames emulates the Bosch ECU MS3 Sport.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se pretende estudiar el comportamiento de la luz al atravesar medios de diversos materiales, tanto isótropos como anisótropos uniáxicos. Para ello se requiere realizar un estudio previo de las condiciones de contorno aplicables a las ecuaciones de Maxwell en la interfase de dos medios que pueden ser isótropos o anisótropos. En el caso de dos materiales isótropos, la solución del problema son los conocidos coeficientes de Fresnel de reflexión y transmisión. En este trabajo se pretende generalizar el estudio al caso del paso de la luz desde un medio isótropo a otro anisótropo uniáxico (con su eje óptico en orientación arbitraria) y viceversa y al caso de dos materiales anisótropos uniáxicos con ejes ópticos en orientaciones arbitrarias. Es de especial interés el caso de un mismo material uniáxico en el que las dos partes tienen el eje óptico con distinta orientación. Una vez planteadas las condiciones de contorno específicas en cada caso, se obtendrá un conjunto de ecuaciones algebraicas cuya resolución permitirá obtener los coeficientes de reflexión y transmisión buscados. Para plantear el sistema de ecuaciones adecuado, será necesario tener una descripción de las características ópticas de los materiales empleados, la orientación de los ejes ópticos en cada caso, y los posibles ángulos de incidencia. Se realizará un tratamiento matricial de modo que el paquete MatLab permite su inversión de manera inmediata. Se desarrollará una interfaz sencilla, realizada con MatLab, que permita al usuario introducir sin dificultad los datos correspondientes a los materiales de los medios incidente y transmitido, la orientación en espacial del o de los ejes ópticos, de la longitud de onda de trabajo y del ángulo de incidencia del haz de luz, con los que la aplicación realizará los cálculos. Los coeficientes de reflexión y refracción obtenidos serán representados gráficamente en función del ángulo de incidencia. Así mismo se representarán los ángulos transmitidos y reflejados en función del de incidencia. Todo ello de esta forma, que resulte sencilla la interpretación de los datos por parte del usuario. ABSTRACT. The reason for this project is to study the behavior of light when light crosses different media of different materials, isotropic materials and uniaxial anisotropic materials. For this, a previous study is necessary where the boundary conditions apply to Maxwell equations at the interface between two media which can be isotropic and anisotropic. If both materials are isotropic, the Fresnel ccoefficients of reflection and refraction are used to solve the problem. The aim of this work is to generalize a study when light crosses from an isotropic media to a uniaxial anisotropic media, where its axis have arbitrary directions, and vicecersa. The system consisting of two materials with axis in arbitrary directions are also being studied. Once the specific boundary conditions are known in each case, a set of algebraic equations are obtained whose solution allows obtaining the reflection coefficients and refraction coefficients. It is necessary to have a description of the optical characteristics of the materials used; of the directions axis in each case and the possible angle of incidence. A matrix is proposed for later treatment in Matlab that allows the immediate inversion. A simple interface will de developed, manufactured with Matlab, that allows the user to enter data easily corresponding to the incident media and transmission media of the different materials, the special axis directions, the wavelength and the angle of incidence of the light beam. This data is used by the application to perform the necessary calculations to solve the problem. When reflection coefficients and refraction coefficients are obtained, the application draws the graphics in function of the angle of incidence. Also transmitted and reflected angles depending on the incidence are represented. This is to perform a data representation which is a simple interpretation of the user data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cuerpo, como conjunto organizado de partes que configuran el organismo, es una entidad metamórfica. El ser humano procura dar continuidad a esta condición mutante que le caracteriza, mediante diversas acciones de carácter arquitectónico. A partir de la observación de los procesos naturales, el individuo se autodefine artificialmente, transformando su realidad innata en una versión distorsionada de sí misma. Por adición, sustracción o modificación, la piel como última capa natural, se convierte en lienzo de manipulación plástica primordial para asegurar la existencia y controlar la identidad, individual y colectiva. La evolución experimental de estas intervenciones primarias, permite suplantar la piel natural por una reinterpretación construida; una piel exenta y desmontable con la que proyectar un yo diferente provisionalmente. El uso constante de esta prótesis removible e intercambiable, provoca que el cuerpo desnudo se transforme en un cuerpo vestido, en un entorno social en el que la desnudez deja de ser el estado natural del ser humano. La piel artificial se construye mediante una gran diversidad de procesos proyectuales, siendo la transformación de la superficie bidimensional en envolvente tridimensional el más utilizado a lo largo de la existencia de la vestimenta. El plano, concebido como principal formato de revestimiento humano, se adapta a su irregularidad topográfica por modelado, perforación, fragmentación, trazado, parametrización e interacción, transformándose en una envolvente cada vez más compleja y perfecta. Su diseño implica la consideración de variables como la dimensión y la escala, la función y la forma, la estructura, el material y la construcción, la técnica y los instrumentos. La vestimenta es una arquitectura habitacional individual, un límite corporal que relaciona el espacio entre el exterior e el interior, lo ajeno y lo propio, el tú y el yo; un filtro concreto y abstracto simultáneamente; una interfaz en donde el vestido es el continente y el cuerpo su contenido. ABSTRACT The body as a whole, organized of parts that make up the organism, is a metamorphic entity. The human being seeks to give continuity to this mutant condition which characterizes him through various actions of architectural character. From the observation of the natural processes, the individual defines itself artificially, transforming its innate reality into a distorted version of itself. By addition, subtraction or modification, the skin, as the last natural layer, becomes canvas of primary plastic handling in order to ensure the existence and to control the identity, both individual and collective. The experimental evolution of these primary interventions allows to impersonate the natural skin by a constructed reinterpretation; a free and detachable skin together with which to be able to project, temporarily, a different “I”. The constant use of this removable and interchangeable prosthesis causes the naked body to be transformed into a dressed body, in a social setting in which the nudity is no longer the natural state of the human being. The artificial skin is constructed by a variety of projectual processes; the most used throughout the existence of the outfit is transforming the two-dimensional surface into a three-dimensional covering. The plan, conceived as the main human lining format, adapts to its topographic irregularity by modeling, drilling, fragmentation, outline, parameters and interaction, thus becoming a type of increasingly more complex and perfect covering. Its design implies the consideration of different variables such as the dimension and the scale, the function and the shape, the structure, the material and the construction, the technique and the instruments. The clothing is an individual residential architecture, a body boundary which relates the space between outside and inside, between the external and the self, between “you” and “I”; at the same time a specific and abstract filter; an interface where the dress is the container and the body its content.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La expansión experimentada por la informática, las nuevas tecnologías e internet en los últimos años, no solo viene dada por la evolución del hardware subyacente, sino por la evolución del desarrollo de software y del crecimiento del número de desarrolladores. Este incremento ha hecho evolucionar el software de unos sistemas de gestión basados en ficheros, prácticamente sin interfaz gráfico y de unos pocos miles de líneas a grandes sistemas distribuidos multiplataforma. El desarrollo de estos grandes sistemas, requiere gran cantidad de personas involucradas en el desarrollo, y que las herramientas de desarrollo hayan crecido también para facilitar su análisis, diseño, codificación, pruebas, implantación y mantenimiento. La base de estas herramientas software las proveen las propias plataformas de desarrollo, pero la experiencia de los desarrolladores puede aportar un sinfín de utilidades y de técnicas que agilicen los desarrollos y cumplan los requisitos del software en base a la reutilización de soluciones lo suficientemente probadas y optimizadas. Dichas herramientas se agrupan ordenadamente, creando así frameworks personalizados, con herramientas de todo tipo, clases, controles, interfaces, patrones de diseño, de tal manera que se dan soluciones personalizadas a un amplio número de problemas para emplearlas cuantas veces se quiera, bien marcando directrices de desarrollo mediante el uso de patrones, bien con la encapsulación de complejidades de tal modo que los desarrolladores ya dispongan de componentes que asuman cierta lógica o cierta complejidad aliviando así la fase de construcción. En este trabajo se abordan temas sobre las tecnologías base y plataformas de desarrollo para poder acometer la creación de un framework personalizado, necesidades a evaluar antes de acometerlo, y técnicas a emplear para la consecución del mismo, orientadas a la documentación, mantenimiento y extensión del framework. La exposición teórica consiste en mostrar y evaluar los requisitos para crear un framework, requisitos de la plataforma de desarrollo, y explicar cómo funcionan las grandes plataformas de desarrollo actuales, que elementos los componen y su funcionamiento, así como marcar ciertas pautas de estructuración y nomenclatura que el desarrollo de un framework debe contemplar para su mantenimiento y extensión. En la parte metodológica se ha usado un subconjunto de Métrica V3, ya que para el desarrollo de controles no aplica dicha metodología en su totalidad, pero contempla el catálogo de requisitos, los casos de uso, diagramas de clase, diagramas de secuencia, etc… Aparte de los conceptos teóricos, se presenta un caso práctico con fines didácticos de cómo parametrizar y configurar el desarrollo bajo la plataforma .NET. Dicho caso práctico consiste en la extensión de un control de usuario genérico de la plataforma .NET, de tal modo que se aplican conceptos más allá del hecho de crear funciones como las funcionalidades que puede brindar un API. Conceptos sobre como extender y modificar controles ya existentes, que interactúan por medio de eventos con otros controles, con vistas a que ese nuevo control forme parte de una biblioteca de controles de usuario personalizados ampliamente divulgada. Los controles de usuario son algo que no solo tienen una parte funcional, sino que también tienen una parte visual, y definiciones funcionales distintas de las típicas del software de gestión, puesto que han de controlar eventos, visualizaciones mientras se dan estos eventos y requisitos no funcionales de optimización de rendimiento, etc… Para el caso práctico se toma como herramienta la plataforma de desarrollo .Net Framework, en todas sus versiones, ya que el control a extender es el control ListView y hacerlo editable. Este control está presente en todas las versiones de .NET framework y con un alto grado de reutilización. Esta extensión muestra además como se puede migrar fácilmente este tipo de extensiones sobre todos los frameworks. Los entornos de desarrollo usados son varias versiones de Visual Studio para el mostrar dicha compatibilidad, aunque el desarrollo que acompaña este documento esté realizado sobre Visual Studio 2013. ABSTRACT The expansion in computer science, new technologies and the Internet in recent years, not only is given by the evolution of the underlying hardware, but for the evolution of software development and the growing number of developers. This increase has evolved software from management systems based on files almost without graphical interface and a few thousand of code lines, to large multiplatform distributed systems. The development of these large systems, require lots of people involved in development, and development tools have also grown to facilitate analysis, design, coding, testing, deployment and maintenance. The basis of these software tools are providing by their own development platforms, but the experience of the developers can bring a lot of utilities and techniques to speed up developments and meet the requirements of software reuse based on sufficiently proven solutions and optimized. These tools are grouped neatly, creating in this way custom frameworks, with tools of all types, classes, controls, interfaces, design patterns,… in such a way that they provide customized solutions to a wide range of problems to use them many times as you want to occur, either by dialing development guidelines by using patterns or along with the encapsulation of complexities, so that developers already have components that take some logic or some complexity relieving the construction phase. This paper cover matters based on technologies and development platforms to undertake the creation of a custom framework, needs to evaluate before rush it and techniques to use in order to achieve it, a part from techniques oriented to documentation, maintenance and framework extension. The theoretical explanation consists in to demonstrate and to evaluate the requirements for creating a framework, development platform requirements, and explain how large current development platforms work, which elements compose them and their operation work, as well as mark certain patterns of structure and nomenclature that the development of a framework should include for its maintenance and extension. In the methodological part, a subset of Métrica V3 has been used, because of, for the development of custom controls this methodology does not apply in its entirety, but provides a catalogue of requirements, use cases, class diagrams, sequence diagrams, etc ... Apart from the theoretical concepts, a study case for teaching purposes about how to parameterize and configure the development under the .NET platform is presented. This study case involves the extension of a generic user control of the .NET platform, so that concepts apply beyond the fact of creating functions as the functionalities that can provide an API. Concepts on how to extend and modify existing controls that interact through events with other controls, overlooking that new control as a part of a custom user controls library widely publicized. User controls are something that not only have a functional part, but also have a visual part, and various functional definitions of typical management software, since that they have to control events, visualizations while these events are given and not functional of performance optimization requirements, etc ... For the study case the development platform .Net Framework is taken as tool, in all its versions, considering that control to extend is the ListView control and make it editable. This control is present in all versions of .NET framework and with a high degree of reuse. This extension also shows how you can easily migrate these extensions on all frameworks. The used development environments are several versions of Visual Studio to show that compatibility, although the development that accompanies this document is done on Visual Studio 2013.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Development of a Sensorimotor Algorithm Able to Deal with Unforeseen Pushes and Its Implementation Based on VHDL is the title of my thesis which concludes my Bachelor Degree in the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación of the Universidad Politécnica de Madrid. It encloses the overall work I did in the Neurorobotics Research Laboratory from the Beuth Hochschule für Technik Berlin during my ERASMUS year in 2015. This thesis is focused on the field of robotics, specifically an electronic circuit called Cognitive Sensorimotor Loop (CSL) and its control algorithm based on VHDL hardware description language. The reason that makes the CSL special resides in its ability to operate a motor both as a sensor and an actuator. This way, it is possible to achieve a balanced position in any of the robot joints (e.g. the robot manages to stand) without needing any conventional sensor. In other words, the back electromotive force (EMF) induced by the motor coils is measured and the control algorithm responds depending on its magnitude. The CSL circuit contains mainly an analog-to-digital converter (ADC) and a driver. The ADC consists on a delta-sigma modulation which generates a series of bits with a certain percentage of 1's and 0's, proportional to the back EMF. The control algorithm, running in a FPGA, processes the bit frame and outputs a signal for the driver. This driver, which has an H bridge topology, gives the motor the ability to rotate in both directions while it's supplied with the power needed. The objective of this thesis is to document the experiments and overall work done on push ignoring contractive sensorimotor algorithms, meaning sensorimotor algorithms that ignore large magnitude forces (compared to gravity) applied in a short time interval on a pendulum system. This main objective is divided in two sub-objectives: (1) developing a system based on parameterized thresholds and (2) developing a system based on a push bypassing filter. System (1) contains a module that outputs a signal which blocks the main Sensorimotor algorithm when a push is detected. This module has several different parameters as inputs e.g. the back EMF increment to consider a force as a push or the time interval between samples. System (2) consists on a low-pass Infinite Impulse Response digital filter. It cuts any frequency considered faster than a certain push oscillation. This filter required an intensive study on how to implement some functions and data types (fixed or floating point data) not supported by standard VHDL packages. Once this was achieved, the next challenge was to simplify the solution as much as possible, without using non-official user made packages. Both systems behaved with a series of interesting advantages and disadvantages for the elaboration of the document. Stability, reaction time, simplicity or computational load are one of the many factors to be studied in the designed systems. RESUMEN. Development of a Sensorimotor Algorithm Able to Deal with Unforeseen Pushes and Its Implementation Based on VHDL es un Proyecto de Fin de Grado (PFG) que concluye mis estudios en la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid. En él se documenta el trabajo de investigación que realicé en el Neurorobotics Research Laboratory de la Beuth Hochschule für Technik Berlin durante el año 2015 mediante el programa de intercambio ERASMUS. Este PFG se centra en el campo de la robótica y en concreto en un circuito electrónico llamado Cognitive Sensorimotor Loop (CSL) y su algoritmo de control basado en lenguaje de modelado hardware VHDL. La particularidad del CSL reside en que se consigue que un motor haga las veces tanto de sensor como de actuador. De esta manera es posible que las articulaciones de un robot alcancen una posición de equilibrio (p.ej. el robot se coloca erguido) sin la necesidad de sensores en el sentido estricto de la palabra. Es decir, se mide la propia fuerza electromotriz (FEM) inducida sobre el motor y el algoritmo responde de acuerdo a su magnitud. El circuito CSL se compone de un convertidor analógico-digital (ADC) y un driver. El ADC consiste en un modulador sigma-delta, que genera una serie de bits con un porcentaje de 1's y 0's determinado, en proporción a la magnitud de la FEM inducida. El algoritmo de control, que se ejecuta en una FPGA, procesa esta cadena de bits y genera una señal para el driver. El driver, que posee una topología en puente H, provee al motor de la potencia necesaria y le otorga la capacidad de rotar en cualquiera de las dos direcciones. El objetivo de este PFG es documentar los experimentos y en general el trabajo realizado en algoritmos Sensorimotor que puedan ignorar fuerzas de gran magnitud (en comparación con la gravedad) y aplicadas en una corta ventana de tiempo. En otras palabras, ignorar empujones conservando el comportamiento original frente a la gravedad. Para ello se han desarrollado dos sistemas: uno basado en umbrales parametrizados (1) y otro basado en un filtro de corte ajustable (2). El sistema (1) contiene un módulo que, en el caso de detectar un empujón, genera una señal que bloquea el algoritmo Sensorimotor. Este módulo recibe diferentes parámetros como el incremento necesario de la FEM para que se considere un empujón o la ventana de tiempo para que se considere la existencia de un empujón. El sistema (2) consiste en un filtro digital paso-bajo de respuesta infinita que corta cualquier variación que considere un empujón. Para crear este filtro se requirió un estudio sobre como implementar ciertas funciones y tipos de datos (coma fija o flotante) no soportados por las librerías básicas de VHDL. Tras esto, el objetivo fue simplificar al máximo la solución del problema, sin utilizar paquetes de librerías añadidos. En ambos sistemas aparecen una serie de ventajas e inconvenientes de interés para el documento. La estabilidad, el tiempo de reacción, la simplicidad o la carga computacional son algunas de las muchos factores a estudiar en los sistemas diseñados. Para concluir, también han sido documentadas algunas incorporaciones a los sistemas: una interfaz visual en VGA, un módulo que compensa el offset del ADC o la implementación de una batería de faders MIDI entre otras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se realiza el diseño e implementación de un sistema que detecta anomalías en las entradas de entornos controlados. Para ello, se hace uso de las últimas técnicas en visión por computador y se avisa visual y auditivamente, mediante un sistema hardware que recibe señales del ordenador al que está conectado. Se marca y fotografía, a una o varias personas, que cometen una infracción en las entradas de un establecimiento, vigilado con sistemas de vídeo. Las imágenes se almacenan en las carpetas correspondientes. El sistema diseñado es colaborativo, por lo tanto, las cámaras que intervienen, se comunican entre ellas a través de estructuras de datos con el objetivo de intercambiar información. Además, se utiliza conexión inalámbrica desde un dispositivo móvil para obtener una visión global del entorno desde cualquier lugar del mundo. La aplicación se desarrolla en el entorno MATLAB, que permite un tratamiento de la señal de imagen apropiado para el presente proyecto. Asimismo, se proporciona al usuario una interfaz gráfica con la que interactuar de manera sencilla, evitando así, el cambio de parámetros en la estructura interna del programa cuando se quiere variar el entorno o el tipo de adquisición de datos. El lenguaje que se escoge facilita la ejecución en distintos sistemas operativos, incluyendo Windows o iOS y, de esta manera, se proporciona flexibilidad. ABSTRACT. This project studies the design and implementation of a system that detects any anomalies on the entrances to controlled environments. To this end, it is necessary the use of last techniques in computer vision in order to notify visually and aurally, by a hardware system which receives signs from the computer it is connected to. One or more people that commit an infringement while entering into a secured environment, with video systems, are marked and photographed and those images are stored in their belonging file folder. This is a collaborative design system, therefore, every involved camera communicates among themselves through data structures with the purpose of exchanging information. Furthermore, to obtain a global environment vision from any place in the world it uses a mobile wireless connection. The application is developed in MATLAB environment because it allows an appropriate treatment of the image signal for this project. In addition, the user is given a graphical interface to easily interact, avoiding with this, changing any parameters on the program’s intern structure, when it requires modifying the environment or the data type acquisition. The chosen language eases its execution in different operating systems, including Windows or iOS, providing flexibility.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del proyecto es el desarrollo de un simulador de comunicaciones submarinas, que permite la caracterización del canal a través de datos reales que son usados para establecer la comunicación entre dos puntos, empleando diferentes técnicas de modulación. Dicho simulador, ofrece un interfaz gráfico sencillo de usar y ha sido desarrollado en MatLab, basado en Bellhop [14] y Simulink. Dicho simulador desarrollado se ha usado para realizar simulaciones en diferentes escenarios, con datos reales del océano extraídos de la base de datos WOD [2]. Se ha divido el proyecto en seis partes: INTRODUCCIÓN, MARCO TEÓRICO, IMPLEMENTACIÓN, CONCLUSIONES, MANUAL y PROPUESTA DE PRÁCTICA. Se describen a continuación: En la primera parte, se realiza una introducción al proyecto, indicando las motivaciones que llevaron a desarrollarlo, una breve introducción, los objetivos fijados y un análisis de la evolución histórica de las comunicaciones submarinas, hasta llegar al estado del arte existente. En la segunda parte se describen los fundamentos teóricos necesarios para el desarrollo del proyecto, por una parte lo relativo a las ondas acústicas y su propagación, y por otra lo relativo a las técnicas de modulación digital empleadas. En la tercera parte se describe la implementación del simulador, explicando las funcionalidades existentes y un resumen de cómo fue desarrollado y su arquitectura lo que facilita su uso para proyectos futuros. La cuarta parte analiza las simulaciones realizadas en diversos escenarios, empleando datos reales y datos artificiales para la temperatura y salinidad del agua. En la quinta parte se proporciona un manual de usuario del simulador desarrollado, para que pueda ser usado correctamente. Se describe también el procesado de extracción de datos de WOD para que sean compatibles. Por último, en propuesta didáctica se propone un guión de práctica para desarrollar en la asignatura P.A.S. ABSTRACT. The main goal of this project is the development of an underwater communication simulator, that allows the determination of the underwater channel through real data, using different modulation techniques. The simulator, offers a graphic interface, easy to use and developed in MatLab, based on Bellhop [14] and Simulink. The simulator was given the name of UWACOMSIM and it was used to simulate different scenarios, using data from the WOD [2]. The project is divided into six parts: INTRODUCTION, THEORETICAL FRAMEWORK, IMPLEMENTATION, CONCLUSIONS, MANUAL and DIDACTAL PROPOSAL. These parts are described bellow: In the first part an introduction is given, remarking the motivations that lead to develop the project. Also objectives are explained, a historical analysis of the underwater communications is given, and finish with the state of the art. Secondly, theoretical part is described. First, everything related with acoustics and wave propagation throgh water, secondly, digital modulation techniques are explained. In the third part, the simulation implementation is explained. Main functionalities are highlighted and a brief overview of the architecture is given. This part can be useful for related works. Simulations and conclusions about the results, are done in the fourth part. In this section, different significant scenarios are chosen, and many simulations are launched in order to analyse the data. In the fifth parth, a user manual is provided in order to show the user how to use the simulator and how to download data from WOD if needed. In the final part of the project, a laboratory session is proposed for the subject P.A.S.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las redes sociales tienen un papel protagónico en la actualidad. Y es que hoy en día, no sólo se utilizan para la comunicación instantánea sino que también ponen a nuestra disposición otras muchas funcionalidades que nos hacen la vida más fácil tanto a nivel personal como profesional. Gracias a ellas, podemos reencontrarnos de una manera cómoda y sencilla con personas del pasado, compartir e intercambiar información en diferentes medios e incluso promover los productos y servicios que ofrezca una determinada empresa, logrando así un contacto más cercano con sus clientes y afiliados. Además en los últimos años las redes sociales también se han convertido en una nueva forma de búsqueda en Internet, de hecho se estima que podrían llegar a reemplazar a los motores de búsqueda. Según los datos obtenidos tras un estudio llevado a cabo por Entrepreneur, el 43% de los usuarios de internet utilizan las redes sociales como buscador de información o negocios1. El objetivo de este proyecto, denominado SocialFan, es el diseño y desarrollo de un generador de redes sociales. Con SocialFan el usuario podrá crear una red social totalmente a su gusto y sin necesidad de tener conocimientos previos informáticos, todo ello gracias a una interfaz muy sencilla y altamente personalizable. Cabe destacar también la existencia de un sistema de recomendación capaz de sugerir aquel contenido que pueda resultar del interés para cada uno de los usuarios. Con el fin de lograr el objetivo anterior, se han establecido relaciones entre los usuarios y poder encontrar así personas con personalidades y gustos similares. Señalar también que las redes sociales generadas a través de SocialFan cuentan con numerosas funcionalidades. La funcionalidad más importante consiste en la publicación del contenido que compone la red social. Este contenido puede ser aportado tan solo por el administrador de la red social o por todos losusuarios que la componen, tratándose en este último caso de una red colaborativa. Además los usuarios pueden valorar y comentar el contenido publicado por otros usuarios. Otra funcionalidad importante es el seguimiento de usuarios, el cual puede ser mutuo o no. Además estas redes sociales incorporan una búsqueda de usuarios y contenido que permite al usuario moverse con libertad por la página web sin necesidad de ceñirse a las recomendaciones realizadas. Sin embargo SocialFan no se limita a la generación de estas redes sociales sino que también permite la integración de la misma en una página web. Este caso puede ser más complicado de entender y podríamos preguntarnos ¿por qué un sitio web puede querer incorporar una red social? La respuesta a esta pregunta es que la interacción social nos permite conocer los gustos y opiniones de otros usuarios, lo cual aporta credibilidad y animan a los usuarios a interactuar y compartir sus experiencias. Para este proyecto se han implementado dos prototipos de uso del generador, creando dos redes sociales, la primera orientada al turismo en Madrid y la segunda orientada a los ejercicios de programación. Sin embargo, consideramos de gran importancia señalar que SocialFan no se limita a estos dos prototipos, sino que se trata de un proyecto muy extensible y genérico, lo que permite adaptarlo a muchos otros dominios, como podrían ser el mundo del arte, los deportes, las mascotas, etc. El proyecto se encuentra disponible vía web en los siguientes enlaces: http://container.fdi.ucm.es:20083/SocialFan http://container.fdi.ucm.es:20083/Madrid

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Realidad virtual es una tecnología que es una tecnología que representa un escenario a través de medios electrónicos, permitiendo al usuario interactuar con el mismo. En esta memoria describimos el uso de esta tecnología para pacientes con deficiencias cognitivas leves (DCL), con el fin de controlar sus deficiencias y mejorar en la medida de lo posible su calidad de vida. La aplicación muestra un interfaz de captura en 3D el movimiento de los usuarios. Esta funcionalidad permitirá al usuario interactuar con el sistema sin necesidad de disponer de ningín dispositivo físico de control.