18 resultados para Guerra, Lucía Más allá de las máscaras

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El artículo repasa sintéticamente las fases que han caracterizado la paulatina convergencia entre las propuestas sucesivas de renovación urbana y los enfoques derivados del paradigma ecológico hasta el momento actual, en que la crisis económica global ha contribuido a situar en primer plano el concepto de regeneración urbana integral y la necesidad de un cambio en el modelo urbano-territorial. Apunta algunas de las dificultades a las que se enfrenta la puesta en práctica del enfoque ecológico en la regeneración urbana, debidas principalmente a que pone en cuestión las premisas de un modelo inmobiliario basado en el consumo de suelo y recursos y opera en un entorno disciplinar y político lastrado aún por las visiones sectoriales y por una concepción reduccionista de lo ambiental. Finalmente, propone algunas directrices generales para el cambio basadas en la aplicación decidida del nuevo paradigma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos decenios la política habitacional chilena ha reducido sustancialmente el número de familias sin casa, pero también ha tenido efectos perversos que es importante analizar con la intención de corregir acciones futuras. El artículo ofrece un panorama de los cien años de política habitacional, de las importantes consecuencias que ésta ha tenido en la configuración de las ciudades chilenas, especialmente de Santiago, y de cómo se presenta actualmente el problema de la vivienda. Esta revisión permite reflexionar sobre los nuevos derroteros que debería tomar la política habitacional para responder mejor a los graves problemas que enfrentan los barrios pobres, considerando que el urbanismo debe apuntar a mejorar la calidad de vida, promoviendo y facilitando la integración social y la superación de la pobreza

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con este artículo invitado vuelvo a Novática. después de 15 años,con el mensaje básico de que ahora, menos que nunca, podemos separar la infotecnología de la sociedad, idea que sin duda está en la mente de todos los infoprofesionales, pero a menudo sin un grado de convicción y concreción suficiente. En esta ocasión comparezco con el propósito de glosar brevemente una herramienta conceptual diseñada para ayudar a comprender globalmente la arquitectura de la infotecnología y algunas de las claves que determinan su impacto en el entorno social.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el artículo introduciremos en primer lugar el nuevo entorno en que se enmarca el cambio sustancial en la naturaleza de la Web tal y como la conocemos. Adoptaremos para ello un enfoque híbrido, diseccionando con un poco más de detalle los elementos tecnológicos, socioeconómicos, administrativos y legislativos que, a nuestro parecer, pueden conformar el contexto que enmarcaría un escenario factible para la introducción de una Gobernanza 2.0 ?de nueva generación? capaz de integrar de una manera sostenible ?ecosistémicamente viable? tecnologías y procesos que soporten de forma natural el paso de una era post-industrial de la información en la que vivimos hace unos años, hacia una sociedad de la información, poblada por verdaderos infociudadanos (nativos digitales en una creciente mayoría) y que debería ser sólo el paso previo para la última utopía: la sociedad del conocimiento, un estadio de la evolución sociotécnica al que se pretende llegar por el ancestral método de la profecía autocumplida, ignorando una realidad vigente considerablemente compleja.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un problema del ferrocarril al paso por las ciudades europeas es el efecto barrera generado, que impide su desarrollo más allá de las vías. Si se salta la barrera lo cierto es que ello se hace sólo en sitios concretos y el efecto psicológico de aislamiento persiste para los habitantes del entorno. Este trabajo presenta de manera sucinta los problemas de concepción, comprobación y vibraciones planteados por la estructura de cubierta de la trinchera ferroviaria de Hendaya, consistente en una losa de hormigón pretensado y luz variable de 20-40 metros, que resuelve el problema de aislamiento entre las dos partes de la ciudad. Su construcción ha sido posible gracias al acuerdo entre la SNCF e inversores privados y está permitiendo la construcción sobre ella de 6 edificios de viviendas y una residencia de turismo, la demolición del antiguo ?Pont-Vieux? y la construcción de un nuevo ?Pont-Vieux?, integrado completamente en la promoción inmobiliaria. An important problem put by the train in its passage by the cities of Europe generally and in France in particular is the effect barrier which builds up, preventing the cities from developing beyond. Even if this barrier is crossed, it is certain that the passage is restricted to concrete places and always acts as psychological barrier for the local residents. This article presents in a brief way the problems of conception, analysis and vibration of the cover structure of the railroad trench of Hendaye. This structure consists of a 20-40 meters span slab of pre-stressed concrete that solves the isolation problem of both parts of the town of Hendaye. Its construction was possible thanks to the agreement of the SNCF (French Railways)and some private investors, and is allowing the investors the construction on top of 6 residential buildings and a holiday residence, with demolition of the ancient “Pont-Vieux” and building of a new “Pont-Vieux”, which is completely integrated into the real-estate development. Special attention is given to the change of transverse cross-section of the slab during construction stages, which originates a redistribution of stresses, and to the long-term equilibrium of horizontal forces.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante muchos años, la hipótesis del Valle Inquietante propuesta por Mori, no sólo ha sido estudiada, respetada y hasta temida por diseñadores y desarrolladores robóticos, sino que sus efectos han sido de interés científico en los ámbitos de la Psicológia, la Ciencia Cognitiva, la Inteligencia Artificial, la Creación de videojuegos y la Animación. Aquellos que siguen la línea de Mori prefieren mantenerse lo suficientemente alejados del valle para garantizar el éxito de sus creaciones. Sin embargo un grupo de investigadores más osados, dispuestos no solo a entrar en el Valle sino también a descubrir una salida, han conseguido a través de los resultados de sus experimentos, poner en tela de duda la hipótesis planteada por el profesor japonés, dando paso al planteamiento de nuevas teorías.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis doctoral "Contribución al estudio y clasificación de las funciones de implicación borrosas" constituye a la vez una revisión y un conjunto de aportaciones a la modelización de enunciados condicionales, o enunciados del tipo "Si P, entonces Q". Dentro del marco de la lógica borrosa, tradicionalmente, se considera que la mayor parte de las funciones de implicación, que modelizan los enunciados condicionales, deberían generalizar la implicación material booleana. En esta memoria se apoya el argumento de que la implicación material booleana no es siempre el modelo más adecuado para la modelización de los enunciados condicionales, por lo que se definen y estudian clases o grupos de funciones de implicación que se adecúen a las necesidades de cada caso de aplicación. Así pues, tras un capítulo introductorio, en el capítulo 2 se plantean clases de funciones de implicación que sirvan de apoyo en la definición de aplicaciones de carácter borroso más allá de las funciones de implicación borrosas derivadas de la implicación material booleana. Así se llega a la conclusión de que son necesarios, por lo menos, cuatro clases de funciones de implicación de las que se estudian sus propiedades. En el tercer capítulo se aborda el estudio de la verificación tanto de la regla del Modus Ponens como de la regla del Modus Tollens por parte de las funciones de implicación pertenecientes a cada una de las clases planteadas. Por último, en el capítulo 4 se presenta un estudio de los operadores citados como implicaciones borrosas en la literatura bajo el enfoque presentado en esta memoria, ampliándose estudios realizados por otros autores. ---ABSTRACT--- The Ph.D. Thesis "Contribution al estudio y clasificacion de las funciones de implication borrosas" is a revision and a set of contributions to the conditional statements or statements of the type "If P then Q" modelization. It has been usually considered in Fuzzy Logic, that implication functions that model conditional statements should generalize the boolean material implication. The present memory supports the argument that boolean material implication is not always the most appropiated model for conditional statements, so implication function groups or clusters are denned in order to fit in each application. Therefore, after an introductory chapter, in chapter 2 groups or clusters of implication functions are given in order to bear out fuzzy applications definitions further on from implication functions coming from boolean material implication. Then, it has been reached the conclusion that, at least, four types of implication functions are needed so their properties are studied.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo de tesis se propone un esquema de votación telemática, de carácter paneuropeo y transnacional, que es capaz de satisfacer las más altas exigencias en materia de seguridad. Este enfoque transnacional supone una importante novedad que obliga a identificar a los ciudadanos más allá de las fronteras de su país, exigencia que se traduce en la necesidad de que todos los ciudadanos europeos dispongan de una identidad digital y en que ésta sea reconocida más allá de las fronteras de su país de origen. Bajo estas premisas, la propuesta recogida en esta tesis se aborda desde dos vertientes complementarias: por una parte, el diseño de un esquema de votación capaz de conquistar la confianza de gobiernos y ciudadanos europeos y, por otra, la búsqueda de una respuesta al problema de interoperabilidad de Sistemas de Gestión de Identidad (IDMs), en consonancia con los trabajos que actualmente realiza la UE para la integración de los servicios proporcionados por las Administraciones Públicas de los distintos países europeos. El punto de partida de este trabajo ha sido la identificación de los requisitos que determinan el adecuado funcionamiento de un sistema de votación telemática para, a partir de ellos,proponer un conjunto de elementos y criterios que permitan, por una parte, establecer comparaciones entre distintos sistemas telemáticos de votación y, por otra, evaluar la idoneidad del sistema propuesto. A continuación se han tomado las más recientes y significativas experiencias de votación telemática llevadas a cabo por diferentes países en la automatización de sus procesos electorales, analizándolas en profundidad para demostrar que, incluso en los sistemas más recientes, todavía subsisten importantes deficiencias relativas a la seguridad. Asimismo, se ha constatado que un sector importante de la población se muestra receloso y, a menudo, cuestiona la validez de los resultados publicados. Por tanto, un sistema que aspire a ganarse la confianza de ciudadanos y gobernantes no sólo debe operar correctamente, trasladando los procesos tradicionales de votación al contexto telemático, sino que debe proporcionar mecanismos adicionales que permitan superar los temores que inspira el nuevo sistema de votación. Conforme a este principio, el enfoque de esta tesis, se orienta, en primer lugar, hacia la creación de pruebas irrefutables, entendibles y auditables a lo largo de todo el proceso de votación, que permitan demostrar con certeza y ante todos los actores implicados en el proceso (gobierno, partidos políticos, votantes, Mesa Electoral, interventores, Junta Electoral,jueces, etc.) que los resultados publicados son fidedignos y que no se han violado los principios de anonimato y de “una persona, un voto”. Bajo este planteamiento, la solución recogida en esta tesis no sólo prevé mecanismos para minimizar el riesgo de compra de votos, sino que además incorpora mecanismos de seguridad robustos que permitirán no sólo detectar posibles intentos de manipulación del sistema, sino también identificar cuál ha sido el agente responsable. De forma adicional, esta tesis va más allá y traslada el escenario de votación a un ámbito paneuropeo donde aparecen nuevos problemas. En efecto, en la actualidad uno de los principales retos a los que se enfrentan las votaciones de carácter transnacional es sin duda la falta de procedimientos rigurosos y dinámicos para la actualización sincronizada de los censos de votantes de los distintos países que evite la presencia de errores que redunden en la incapacidad de controlar que una persona emita más de un voto, o que se vea impedido del todo a ejercer su derecho. Este reconocimiento de la identidad transnacional requiere la interoperabilidad entre los IDMs de los distintos países europeos. Para dar solución a este problema, esta tesis se apoya en las propuestas emergentes en el seno de la UE, que previsiblemente se consolidarán en los próximos años, tanto en materia de identidad digital (con la puesta en marcha de la Tarjeta de Ciudadano Europeo) como con el despliegue de una infraestructura de gestión de identidad que haga posible la interoperabilidad de los IDMs de los distintos estados miembros. A partir de ellas, en esta tesis se propone una infraestructura telemática que facilita la interoperabilidad de los sistemas de gestión de los censos de los distintos estados europeos en los que se lleve a cabo conjuntamente la votación. El resultado es un sistema versátil, seguro, totalmente robusto, fiable y auditable que puede ser aplicado en elecciones paneuropeas y que contempla la actualización dinámica del censo como una parte crítica del proceso de votación. ABSTRACT: This Ph. D. dissertation proposes a pan‐European and transnational system of telematic voting that is capable of meeting the strictest security standards. This transnational approach is a significant innovation that entails identifying citizens beyond the borders of their own country,thus requiring that all European citizens must have a digital identity that is recognized beyond the borders of their country of origin. Based on these premises, the proposal in this thesis is analyzed in two mutually‐reinforcing ways: first, a voting system is designed that is capable of winning the confidence of European governments and citizens and, second, a solution is conceived for the problem of interoperability of Identity Management Systems (IDMs) that is consistent with work being carried out by the EU to integrate the services provided by the public administrations of different European countries. The starting point of this paper is to identify the requirements for the adequate functioning of a telematic voting system and then to propose a set of elements and criteria that will allow for making comparisons between different such telematic voting systems for the purpose of evaluating the suitability of the proposed system. Then, this thesis provides an in‐depth analysis of most recent significant experiences in telematic voting carried out by different countries with the aim of automating electoral processes, and shows that even the most recent systems have significant shortcomings in the realm of security. Further, a significant portion of the population has shown itself to be wary,and they often question the validity of the published results. Therefore, a system that aspires to win the trust of citizens and leaders must not only operate correctly by transferring traditional voting processes into a telematic environment, but must also provide additional mechanisms that can overcome the fears aroused by the new voting system. Hence, this thesis focuses, first, on creating irrefutable, comprehensible and auditable proof throughout the voting process that can demonstrate to all actors in the process – the government, political parties, voters, polling station workers, electoral officials, judges, etc. ‐that the published results are accurate and that the principles of anonymity and one person,one vote, have not been violated. Accordingly, the solution in this thesis includes mechanisms to minimize the risk of vote buying, in addition to robust security mechanisms that can not only detect possible attempts to manipulate the system, but also identify the responsible party. Additionally, this thesis goes one step further and moves the voting scenario to a pan‐European scale, in which new problems appear. Indeed, one of the major challenges at present for transnational voting processes is the lack of rigorous and dynamic procedures for synchronized updating of different countries’ voter rolls, free from errors that may make the system unable to keep an individual from either casting more than one vote, or from losing the effective exercise of the right to vote. This recognition of transnational identity requires interoperability between the IDMs of different European countries. To solve the problem, this thesis relies on proposals emerging within the EU that are expected to take shape in the coming years, both in digital identity – with the launch of the European Citizen Card – and in the deployment of an identity management infrastructure that will enable interoperability of the IDMs of different member states. Based on these, the thesis proposes a telematic infrastructure that will achieve interoperability of the census management systems of European states in which voting processes are jointly carried out. The result is a versatile, secure, totally robust, reliable and auditable system that can be applied in pan‐European election, and that includes dynamic updating of the voter rolls as a critical part of the voting process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este capítulo nos adentramos por la biblioteca de Matemáticas y Física de Leopoldo Calvo-Sotelo y Bustelo quien, durante toda su vida, demostró un interés permanente por los avances que se iban produciendo y una curiosidad inacabable por los descubrímientos que llegaban a su conocimiento. Como se verá, dentro de sus intereses figuran a lo largo de toda su existencia los relacionados con teorías físicas como la relatividad o la mecánica cuántica, así como con sus correspondientes aparatos matemáticos. Pero también lo relativo a las hipótesis cosmológicas y a los procesos termodinámicos irreversibles. Ello le hacía estar atento a todas las ocasiones que se presentaban para atender foros en los que se discutían estos temas, como las conmemoraciones en 2005, en la Residencia de Estudiantes del Consejo Superior de Investigaciones Científicas (CSIC) y en la Real Academia de Ciencias Exactas, Físicas y Naturales, del aniversario de la publicación del primer artículo de Einstein sobre Relatividad, o la ceremonia en que Ilia Prigogine fue nombrado Doctor Honoris Causa por la Universidad Nacional de Educación a Distancia el 15 de octubre de 1985. Creemos que ese deseo de conocimientos científicos tiene sus raíces en la etapa de estudiante en el Instituto Cervantes, en la Escuela Especial de Ingenieros de Caminos y en la fascinación ejercida por las lecciones de Zubiri, pues como el propio Calvo-Sotelo dice: «El estudiante de Matemáticas y de Física Teórica que fui quería buscar, más allá de las estructuras y de las ecuaciones, el sentido último de lo que estudiaba, precisamente porque la Física Matemática vivía por aquellos tiempos el apogeo de la revolución que habían hecho en ella hombres como Plank y Einstein». Por ello, comenzaremos con un análisis de las circunstancias personales en su etapa de formación en la Escuela de Caminos que, unida a sus declaraciones, permita comprender su entusiasmo y posterior dedicación al estudio de temas que sólo marginalmente habían formado parte de su carrera. A continuación, describiremos un somero panorama de la situación española e internacional de ambas ramas del conocimiento, para crear un fondo sobre el que situar las adquisiciones bibliográficas de nuestro protagonista en las diferentes etapas de su vida y, finalmente, intentaremos bosquejar unas conclusiones sobre la inquietud esencialmente intelectual que Leopoldo Calvo-Sotelo cultivó en estos campos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se ha realizado en el contexto del proyecto UPMSat-2, que es un microsatélite diseñado, construido y operado por el Instituto Universitario de Microgravedad "Ignacio Da Riva" (IDR / UPM) de la Universidad Politécnica de Madrid. Aplicación de la metodología Ingeniería Concurrente (Concurrent Engineering: CE) en el marco de la aplicación de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) es uno de los principales objetivos del presente trabajo. En los últimos años, ha habido un interés continuo en la participación de los grupos de investigación de las universidades en los estudios de la tecnología espacial a través de sus propios microsatélites. La participación en este tipo de proyectos tiene algunos desafíos inherentes, tales como presupuestos y servicios limitados. Además, debido al hecho de que el objetivo principal de estos proyectos es fundamentalmente educativo, por lo general hay incertidumbres en cuanto a su misión en órbita y cargas útiles en las primeras fases del proyecto. Por otro lado, existen limitaciones predeterminadas para sus presupuestos de masa, volumen y energía, debido al hecho de que la mayoría de ellos están considerados como una carga útil auxiliar para el lanzamiento. De este modo, el costo de lanzamiento se reduce considerablemente. En este contexto, el subsistema estructural del satélite es uno de los más afectados por las restricciones que impone el lanzador. Esto puede afectar a diferentes aspectos, incluyendo las dimensiones, la resistencia y los requisitos de frecuencia. En la primera parte de esta tesis, la atención se centra en el desarrollo de una herramienta de diseño del subsistema estructural que evalúa, no sólo las propiedades de la estructura primaria como variables, sino también algunas variables de nivel de sistema del satélite, como la masa de la carga útil y la masa y las dimensiones extremas de satélite. Este enfoque permite que el equipo de diseño obtenga una mejor visión del diseño en un espacio de diseño extendido. La herramienta de diseño estructural se basa en las fórmulas y los supuestos apropiados, incluyendo los modelos estáticos y dinámicos del satélite. Un algoritmo genético (Genetic Algorithm: GA) se aplica al espacio de diseño para optimizaciones de objetivo único y también multiobjetivo. El resultado de la optimización multiobjetivo es un Pareto-optimal basado en dos objetivo, la masa total de satélites mínimo y el máximo presupuesto de masa de carga útil. Por otro lado, la aplicación de los microsatélites en misiones espaciales es de interés por su menor coste y tiempo de desarrollo. La gran necesidad de las aplicaciones de teledetección es un fuerte impulsor de su popularidad en este tipo de misiones espaciales. Las misiones de tele-observación por satélite son esenciales para la investigación de los recursos de la tierra y el medio ambiente. En estas misiones existen interrelaciones estrechas entre diferentes requisitos como la altitud orbital, tiempo de revisita, el ciclo de vida y la resolución. Además, todos estos requisitos puede afectar a toda las características de diseño. Durante los últimos años la aplicación de CE en las misiones espaciales ha demostrado una gran ventaja para llegar al diseño óptimo, teniendo en cuenta tanto el rendimiento y el costo del proyecto. Un ejemplo bien conocido de la aplicación de CE es la CDF (Facilidad Diseño Concurrente) de la ESA (Agencia Espacial Europea). Está claro que para los proyectos de microsatélites universitarios tener o desarrollar una instalación de este tipo parece estar más allá de las capacidades del proyecto. Sin embargo, la práctica de la CE a cualquier escala puede ser beneficiosa para los microsatélites universitarios también. En la segunda parte de esta tesis, la atención se centra en el desarrollo de una estructura de optimización de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) aplicable a la fase de diseño conceptual de microsatélites de teledetección. Este enfoque permite que el equipo de diseño conozca la interacción entre las diferentes variables de diseño. El esquema MDO presentado no sólo incluye variables de nivel de sistema, tales como la masa total del satélite y la potencia total, sino también los requisitos de la misión como la resolución y tiempo de revisita. El proceso de diseño de microsatélites se divide en tres disciplinas; a) diseño de órbita, b) diseño de carga útil y c) diseño de plataforma. En primer lugar, se calculan diferentes parámetros de misión para un rango práctico de órbitas helio-síncronas (sun-synchronous orbits: SS-Os). Luego, según los parámetros orbitales y los datos de un instrumento como referencia, se calcula la masa y la potencia de la carga útil. El diseño de la plataforma del satélite se estima a partir de los datos de la masa y potencia de los diferentes subsistemas utilizando relaciones empíricas de diseño. El diseño del subsistema de potencia se realiza teniendo en cuenta variables de diseño más detalladas, como el escenario de la misión y diferentes tipos de células solares y baterías. El escenario se selecciona, de modo de obtener una banda de cobertura sobre la superficie terrestre paralelo al Ecuador después de cada intervalo de revisita. Con el objetivo de evaluar las interrelaciones entre las diferentes variables en el espacio de diseño, todas las disciplinas de diseño mencionados se combinan en un código unificado. Por último, una forma básica de MDO se ajusta a la herramienta de diseño de sistema de satélite. La optimización del diseño se realiza por medio de un GA con el único objetivo de minimizar la masa total de microsatélite. Según los resultados obtenidos de la aplicación del MDO, existen diferentes puntos de diseños óptimos, pero con diferentes variables de misión. Este análisis demuestra la aplicabilidad de MDO para los estudios de ingeniería de sistema en la fase de diseño conceptual en este tipo de proyectos. La principal conclusión de esta tesis, es que el diseño clásico de los satélites que por lo general comienza con la definición de la misión y la carga útil no es necesariamente la mejor metodología para todos los proyectos de satélites. Un microsatélite universitario, es un ejemplo de este tipo de proyectos. Por eso, se han desarrollado un conjunto de herramientas de diseño para encarar los estudios de la fase inicial de diseño. Este conjunto de herramientas incluye diferentes disciplinas de diseño centrados en el subsistema estructural y teniendo en cuenta una carga útil desconocida a priori. Los resultados demuestran que la mínima masa total del satélite y la máxima masa disponible para una carga útil desconocida a priori, son objetivos conflictivos. En este contexto para encontrar un Pareto-optimal se ha aplicado una optimización multiobjetivo. Según los resultados se concluye que la selección de la masa total por satélite en el rango de 40-60 kg puede considerarse como óptima para un proyecto de microsatélites universitario con carga útil desconocida a priori. También la metodología CE se ha aplicado al proceso de diseño conceptual de microsatélites de teledetección. Los resultados de la aplicación del CE proporcionan una clara comprensión de la interacción entre los requisitos de diseño de sistemas de satélites, tales como la masa total del microsatélite y la potencia y los requisitos de la misión como la resolución y el tiempo de revisita. La aplicación de MDO se hace con la minimización de la masa total de microsatélite. Los resultados de la aplicación de MDO aclaran la relación clara entre los diferentes requisitos de diseño del sistema y de misión, así como que permiten seleccionar las líneas de base para el diseño óptimo con el objetivo seleccionado en las primeras fase de diseño. ABSTRACT This thesis is done in the context of UPMSat-2 project, which is a microsatellite under design and manufacturing at the Instituto Universitario de Microgravedad “Ignacio Da Riva” (IDR/UPM) of the Universidad Politécnica de Madrid. Application of Concurrent Engineering (CE) methodology in the framework of Multidisciplinary Design application (MDO) is one of the main objectives of the present work. In recent years, there has been continuing interest in the participation of university research groups in space technology studies by means of their own microsatellites. The involvement in such projects has some inherent challenges, such as limited budget and facilities. Also, due to the fact that the main objective of these projects is for educational purposes, usually there are uncertainties regarding their in orbit mission and scientific payloads at the early phases of the project. On the other hand, there are predetermined limitations for their mass and volume budgets owing to the fact that most of them are launched as an auxiliary payload in which the launch cost is reduced considerably. The satellite structure subsystem is the one which is most affected by the launcher constraints. This can affect different aspects, including dimensions, strength and frequency requirements. In the first part of this thesis, the main focus is on developing a structural design sizing tool containing not only the primary structures properties as variables but also the satellite system level variables such as payload mass budget and satellite total mass and dimensions. This approach enables the design team to obtain better insight into the design in an extended design envelope. The structural design sizing tool is based on the analytical structural design formulas and appropriate assumptions including both static and dynamic models of the satellite. A Genetic Algorithm (GA) is applied to the design space for both single and multiobejective optimizations. The result of the multiobjective optimization is a Pareto-optimal based on two objectives, minimum satellite total mass and maximum payload mass budget. On the other hand, the application of the microsatellites is of interest for their less cost and response time. The high need for the remote sensing applications is a strong driver of their popularity in space missions. The satellite remote sensing missions are essential for long term research around the condition of the earth resources and environment. In remote sensing missions there are tight interrelations between different requirements such as orbital altitude, revisit time, mission cycle life and spatial resolution. Also, all of these requirements can affect the whole design characteristics. During the last years application of the CE in the space missions has demonstrated a great advantage to reach the optimum design base lines considering both the performance and the cost of the project. A well-known example of CE application is ESA (European Space Agency) CDF (Concurrent Design Facility). It is clear that for the university-class microsatellite projects having or developing such a facility seems beyond the project capabilities. Nevertheless practicing CE at any scale can be beneficiary for the university-class microsatellite projects. In the second part of this thesis, the main focus is on developing a MDO framework applicable to the conceptual design phase of the remote sensing microsatellites. This approach enables the design team to evaluate the interaction between the different system design variables. The presented MDO framework contains not only the system level variables such as the satellite total mass and total power, but also the mission requirements like the spatial resolution and the revisit time. The microsatellite sizing process is divided into the three major design disciplines; a) orbit design, b) payload sizing and c) bus sizing. First, different mission parameters for a practical range of sun-synchronous orbits (SS-Os) are calculated. Then, according to the orbital parameters and a reference remote sensing instrument, mass and power of the payload are calculated. Satellite bus sizing is done based on mass and power calculation of the different subsystems using design estimation relationships. In the satellite bus sizing, the power subsystem design is realized by considering more detailed design variables including a mission scenario and different types of solar cells and batteries. The mission scenario is selected in order to obtain a coverage belt on the earth surface parallel to the earth equatorial after each revisit time. In order to evaluate the interrelations between the different variables inside the design space all the mentioned design disciplines are combined in a unified code. The integrated satellite system sizing tool developed in this section is considered as an application of the CE to the conceptual design of the remote sensing microsatellite projects. Finally, in order to apply the MDO methodology to the design problem, a basic MDO framework is adjusted to the developed satellite system design tool. Design optimization is done by means of a GA single objective algorithm with the objective function as minimizing the microsatellite total mass. According to the results of MDO application, there exist different optimum design points all with the minimum satellite total mass but with different mission variables. This output demonstrates the successful applicability of MDO approach for system engineering trade-off studies at the conceptual design phase of the design in such projects. The main conclusion of this thesis is that the classical design approach for the satellite design which usually starts with the mission and payload definition is not necessarily the best approach for all of the satellite projects. The university-class microsatellite is an example for such projects. Due to this fact an integrated satellite sizing tool including different design disciplines focusing on the structural subsystem and considering unknown payload is developed. According to the results the satellite total mass and available mass for the unknown payload are conflictive objectives. In order to find the Pareto-optimal a multiobjective GA optimization is conducted. Based on the optimization results it is concluded that selecting the satellite total mass in the range of 40-60 kg can be considered as an optimum approach for a university-class microsatellite project with unknown payload(s). Also, the CE methodology is applied to the remote sensing microsatellites conceptual design process. The results of CE application provide a clear understanding of the interaction between satellite system design requirements such as satellite total mass and power and the satellite mission variables such as revisit time and spatial resolution. The MDO application is done with the total mass minimization of a remote sensing satellite. The results from the MDO application clarify the unclear relationship between different system and mission design variables as well as the optimum design base lines according to the selected objective during the initial design phases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una de las directrices emanadas del proceso de convergencia hacia el Espacio Europeo de Educación Superior (EEES) hace referencia al desarrollo de competencias transversales (genéricas) de nuestros estudiantes. Nos estamos refiriendo a aquellas habilidades instrumentales, personales y sistémicas que van más allá de las específicas de cada materia. En 2005, un grupo de profesores de la Universidad Politécnica de Madrid (UPM) constituimos el Grupo de Innovación Educativa DMAE-DIA que fue reconocido como tal por la UPM en 2006. Las líneas de actuación prioritarias del grupo son la evaluación de competencias transversales y el desarrollo de metodologías de aprendizaje activo. Desde entonces y en colaboración con dos profesoras del Departamento de Metodología de las Ciencias del Comportamiento de la Facultad de Psicología de la Universidad Complutense de Madrid estamos realizando evaluaciones sobre la adquisición de algunas de las citadas competencias. En este trabajo presentamos el procedimiento, los resultados y un análisis de los mismos en relación con la evaluación de una competencia genérica instrumental: la capacidad de organización y planificación del estudio. Se considera el estudio como una conducta psicopedagógica compleja, en la que se delimitan 3 fases: antes, durante y después. En este trabajo se han evaluado estrategias durante el estudio. Los sujetos del estudio fueron los alumnos de la asignatura de Sistemas Operativos I, en el curso académico 2006/2007. Como quedará puesto de manifiesto, nuestros estudiantes están en un percentil muy bajo en relación con esta competencia lo que influye sobremanera sobre el rendimiento académico final. En este trabajo también describimos algunas acciones que pensamos ejecutar para intentar paliar este problema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las estructuras que se presentan en el artículo son muestra de cómo los condicionantes geométricos pueden potenciar diseños eficientes y estéticamente destacables más allá de las restricciones que imponen. Éstas son el viaducto de San Patrici y el puente en el PK 0+700, ambos situados en la variante de Ferreríes, y la pérgola en la Me-1 con uno de los ramales del enlace de Mahón, todas ellas ejecutadas en la isla de Menorca. El viaducto, situado entre las localidades de Ferreries y San Patrici, resuelve el paso de la variante sobre la glorieta de cambio de sentido, situada ésta a su vez sobre dos caminos que atraviesan la misma mediante sendos pasos inferiores. El puente en el PK 0+700 da solución al paso de la nueva vía respetando el gálibo impuesto por las vías inferiores así como la imposibilidad de disponer un apoyo intermedio debido a la presencia de un canal existente. Por su parte, la pérgola solucionó el cruce de la Me-1 con el enlace de Mahón, que poseía como principal condicionante el ángulo de encuentro de 24º entre ambos ejes además de gálibos mínimos de 11,5 m horizontal y de 6,3 m vertical.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis doctoral persigue dos objetivos simultáneos: Determinar el alcance de los criterios clásicos para la evaluación de arquitectura y poner en crisis la prevalencia de esos mismos criterios dentro del marco crítico y productivo actual. En concreto, esta tesis se interroga sobre la posible contribución de determinadas corrientes del pensamiento post-estructuralista y neo-materialista a las tareas de expansión y transformación de los criterios clásicos antes mencionados. Asimismo, se plantea la oportunidad de formalizar estas incorporaciones conceptuales como metodologías para el proyectar arquitectónico. La tesis emplea un análisis pormenorizado de las cualidades implícitas en la triada Firmitas, Utilitas, Venustas elaborada por Vitruvio como vehículo para calibrar la influencia de los paradigmas de pensamiento clásico en nuestras posiciones críticas contemporáneas. Como reacción al carácter dominante de dichos paradigmas, y con la ayuda de una compilación selectiva de ejemplos procedentes de los campos artístico y arquitectónico, la presente tesis procede a examinar y clasificar diversas estrategias arquitectónicas basadas en la no conformidad con los criterios clásicos de evaluación de la disciplina. A la hora de realizar esta tarea, y con el objetivo de superar el dualismo trascendental que caracteriza la gran mayoría de dichos criterios clásicos, se propone un modelo analítico y multidimensional que formula las instancias arquitectónicas como posibles posiciones dentro de un extenso continuo combinatorio de cualidades formales, estructurales y organizativas. Este modelo conceptual permite replantear el aparente antagonismo entre los principios de Vitruvio y sus opuestos, estableciendo en su lugar un dominio operativo continuo de producción arquitectónica. Esta operación abre una ventana de oportunidad para expandir los límites del marco crítico actual más allá de las fronteras establecidas por nuestra herencia clásica. En consecuencia con esta voluntad, la presente tesis pretende habilitar un ámbito para el análisis crítico de las estrategias que caracterizan ciertas corrientes del proyectar contemporáneo, pero también contribuir a informar nuevas aproximaciones metodológicas al proceso de proyecto, desplazando progresivamente su foco desde lo descriptivo hacia lo proyectivo. ABSTRACT This doctoral thesis attempts to simultaneously determine the scope of the classical criteria for the evaluation of architecture and challenge their prevalence within the current framework of architectural production and criticism. It examines how specific strands of post-structuralism and neo-materialism may contribute to both the expansion and the transformation of these criteria and, in doing so, sets itself the goal of mobilising these conceptual incorporations as explicit design methodologies. A detailed analysis of the formal, structural and organisational qualities implicit in Vitruvius’ triad Firmitas, Utilitas, Venustas is used as a starting point to determine the influence of classical paradigms in our current critical positions. As a reaction to this critical pervasiveness, and supported by a curated collection of artistic and architectural works, diverse approaches to non-compliance with the classical criteria of assessment are examined and classified. In order to facilitate this endeavour -and to overcome the transcendental dualism of most classical critical approaches in architecture- this thesis puts forward an analytical, multidimensional model that formulates architectural instances as possible positions within a larger combinatory continuum of formal, structural and organisational qualities. Using this conceptual model, the apparent antagonism between Vitruvius’ principles and its non-compliant opposites is reframed as a continuous operative domain of architectural production, which in turn opens up a window of opportunity to expand the limits of our critical framework beyond the boundaries of classical paradigms. In doing so, this thesis attempts not only to foster a better understanding of some of the strategic approaches that characterise contemporary systems of architectural production, but also to inform future methodological approaches to architectural design, hence situating itself beyond the domain of the descriptive and moving towards the projective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los servicios telemáticos han transformando la mayoría de nuestras actividades cotidianas y ofrecen oportunidades sin precedentes con características como, por ejemplo, el acceso ubicuo, la disponibilidad permanente, la independencia del dispositivo utilizado, la multimodalidad o la gratuidad, entre otros. No obstante, los beneficios que destacan en cuanto se reflexiona sobre estos servicios, tienen como contrapartida una serie de riesgos y amenazas no tan obvios, ya que éstos se nutren de y tratan con datos personales, lo cual suscita dudas respecto a la privacidad de las personas. Actualmente, las personas que asumen el rol de usuarios de servicios telemáticos generan constantemente datos digitales en distintos proveedores. Estos datos reflejan parte de su intimidad, de sus características particulares, preferencias, intereses, relaciones sociales, hábitos de consumo, etc. y lo que es más controvertido, toda esta información se encuentra bajo la custodia de distintos proveedores que pueden utilizarla más allá de las necesidades y el control del usuario. Los datos personales y, en particular, el conocimiento sobre los usuarios que se puede extraer a partir de éstos (modelos de usuario) se han convertido en un nuevo activo económico para los proveedores de servicios. De este modo, estos recursos se pueden utilizar para ofrecer servicios centrados en el usuario basados, por ejemplo, en la recomendación de contenidos, la personalización de productos o la predicción de su comportamiento, lo cual permite a los proveedores conectar con los usuarios, mantenerlos, involucrarlos y en definitiva, fidelizarlos para garantizar el éxito de un modelo de negocio. Sin embargo, dichos recursos también pueden utilizarse para establecer otros modelos de negocio que van más allá de su procesamiento y aplicación individual por parte de un proveedor y que se basan en su comercialización y compartición con otras entidades. Bajo esta perspectiva, los usuarios sufren una falta de control sobre los datos que les refieren, ya que esto depende de la voluntad y las condiciones impuestas por los proveedores de servicios, lo cual implica que habitualmente deban enfrentarse ante la disyuntiva de ceder sus datos personales o no acceder a los servicios telemáticos ofrecidos. Desde el sector público se trata de tomar medidas que protejan a los usuarios con iniciativas y legislaciones que velen por su privacidad y que aumenten el control sobre sus datos personales, a la vez que debe favorecer el desarrollo económico propiciado por estos proveedores de servicios. En este contexto, esta tesis doctoral propone una arquitectura y modelo de referencia para un ecosistema de intercambio de datos personales centrado en el usuario que promueve la creación, compartición y utilización de datos personales y modelos de usuario entre distintos proveedores, al mismo tiempo que ofrece a los usuarios las herramientas necesarias para ejercer su control en cuanto a la cesión y uso de sus recursos personales y obtener, en su caso, distintos incentivos o contraprestaciones económicas. Las contribuciones originales de la tesis son la especificación y diseño de una arquitectura que se apoya en un proceso de modelado distribuido que se ha definido en el marco de esta investigación. Éste se basa en el aprovechamiento de recursos que distintas entidades (fuentes de datos) ofrecen para generar modelos de usuario enriquecidos que cubren las necesidades específicas de terceras entidades, considerando la participación del usuario y el control sobre sus recursos personales (datos y modelos de usuario). Lo anterior ha requerido identificar y caracterizar las fuentes de datos con potencial de abastecer al ecosistema, determinar distintos patrones para la generación de modelos de usuario a partir de datos personales distribuidos y heterogéneos y establecer una infraestructura para la gestión de identidad y privacidad que permita a los usuarios expresar sus preferencias e intereses respecto al uso y compartición de sus recursos personales. Además, se ha definido un modelo de negocio de referencia que sustenta las investigaciones realizadas y que ha sido particularizado en dos ámbitos de aplicación principales, en concreto, el sector de publicidad en redes sociales y el sector financiero para la implantación de nuevos servicios. Finalmente, cabe destacar que las contribuciones de esta tesis han sido validadas en el contexto de distintos proyectos de investigación industrial aplicada y también en el marco de proyectos fin de carrera que la autora ha tutelado o en los que ha colaborado. Los resultados obtenidos han originado distintos méritos de investigación como dos patentes en explotación, la publicación de un artículo en una revista con índice de impacto y diversos artículos en congresos internacionales de relevancia. Algunos de éstos han sido galardonados con premios de distintas instituciones, así como en las conferencias donde han sido presentados. ABSTRACT Information society services have changed most of our daily activities, offering unprecedented opportunities with certain characteristics, such as: ubiquitous access, permanent availability, device independence, multimodality and free-of-charge services, among others. However, all the positive aspects that emerge when thinking about these services have as counterpart not-so-obvious threats and risks, because they feed from and use personal data, thus creating concerns about peoples’ privacy. Nowadays, people that play the role of user of services are constantly generating digital data in different service providers. These data reflect part of their intimacy, particular characteristics, preferences, interests, relationships, consumer behavior, etc. Controversy arises because this personal information is stored and kept by the mentioned providers that can use it beyond the user needs and control. Personal data and, in particular, the knowledge about the user that can be obtained from them (user models) have turned into a new economic asset for the service providers. In this way, these data and models can be used to offer user centric services based, for example, in content recommendation, tailored-products or user behavior, all of which allows connecting with the users, keeping them more engaged and involved with the provider, finally reaching customer loyalty in order to guarantee the success of a business model. However, these resources can be used to establish a different kind of business model; one that does not only processes and individually applies personal data, but also shares and trades these data with other entities. From that perspective, the users lack control over their referred data, because it depends from the conditions imposed by the service providers. The consequence is that the users often face the following dilemma: either giving up their personal data or not using the offered services. The Public Sector takes actions in order to protect the users approving, for example, laws and legal initiatives that reinforce privacy and increase control over personal data, while at the same time the authorities are also key players in the economy development that derives from the information society services. In this context, this PhD Dissertation proposes an architecture and reference model to achieve a user-centric personal data ecosystem that promotes the creation, sharing and use of personal data and user models among different providers, while offering users the tools to control who can access which data and why and if applicable, to obtain different incentives. The original contributions obtained are the specification and design of an architecture that supports a distributed user modelling process defined by this research. This process is based on leveraging scattered resources of heterogeneous entities (data sources) to generate on-demand enriched user models that fulfill individual business needs of third entities, considering the involvement of users and the control over their personal resources (data and user models). This has required identifying and characterizing data sources with potential for supplying resources, defining different generation patterns to produce user models from scattered and heterogeneous data, and establishing identity and privacy management infrastructures that allow users to set their privacy preferences regarding the use and sharing of their resources. Moreover, it has also been proposed a reference business model that supports the aforementioned architecture and this has been studied for two application fields: social networks advertising and new financial services. Finally, it has to be emphasized that the contributions obtained in this dissertation have been validated in the context of several national research projects and master thesis that the author has directed or has collaborated with. Furthermore, these contributions have produced different scientific results such as two patents and different publications in relevant international conferences and one magazine. Some of them have been awarded with different prizes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.