359 resultados para Naci?n


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El premio Nobel Herbert Simon en un ensayo de 1969, definía la ingeniería como la ciencia de lo artificial, cosa que treinta años antes ya estaba contenida an la "Meditación de la Técnica" de Ortega. Simon explica también que la tarea de la ingeniería es cómo diseñar y fabricar artefactos que tengan ciertas propiedades. Al establecer la relación entre el carácter del artefacto y su objetivo surge la necesidad de considerar la influencia del medio ambiente en el que aquél va a funcionar y por eso se puede ver el artefacto como una interfase entre el ambiente exterior y su estructura interior. Las ciencias naturales influyen directamente en estos dos términos y por ello la ingeniería moderna surge cuando se aplican de forma sistemática los conocimientos generados por la ciencia positiva que permiten analizar éxitos y fracasos desde un punto de vista nacional y predecir los efectos de las alteraciones que se introduzcan sobre los diseños iniciales. En España el patriarca de la ingeniería moderna es Agustín de Betancourt, personaje extraordinario al que recientemente la Real Academia de Ingeniería acaba de declarar Summa Auctoritates Academiae y en cuyo honor le ha dedicado un altorrelieve en el Puerto de la Cruz, lugar donde nació en 1758. Pero la ingeniería sólo es grande cuando coincide la calidad de cada uno de los tres factores que intervienen en la misma: proyectistas con imaginación y conocimientos, industria capaz de ofrecer los materiales más adecuados y llevar adelante los procesos de construcción o montaje que áquel imagine y promotores con la solvencia económica capaces de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación, la estética o la sostenibilidad que tanto añaden al cumplimiento de los fines utilitarios que se encuentran en el origen de las intervenciones. El capítulo está organizado en tres bloques: en el primero se muestran brevísimamente algunos arquetipos históricos de la ingeniería más antigua, así como la progresiva influencia de los conocimientos científicos hasta llegar a Betancourt. A continuación se marca la evolución de éste desde su etapa de formación a su transformación en un influyente inventor, pero también en un reformador de los cuerpos de la Administración y de la enseñanza. Finalmente dedicaré un tiempo a hablar del mantenimiento de su espíritu, a pesar de guerras y revoluciones, a lo largo del siglo XX, para concluir con una breve reflexión sobre las enseñanzas a extraer de su ejemplo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A través de variaciones de enfoques de planificación, se ha implementado un proyecto de desarrollo clásico (Enfoque de reforma social) que luego evoluciona en participativo (Aprendizaje social); en la sierra sur del Perú. El RED Rural Pampas (Racimo estratégico de desarrollo), fue un proyecto que nació de una entidad gubernamental FONCODES Apurimac. El proyecto brindaba capacitación en temas agropecuarios, asistencia técnica y soporte financiero a comuneros de extrema pobreza de la región Apurimac. Dicho proyecto difería de muchos en que los beneficiarios podían participar de las decisiones del mismo a través de Núcleos Ejecutores (representantes de las comunidades beneficiarias). El caso analiza el proceso de conversión de un proyecto de desarrollo en una entidad empresarial , la Microfinanciera rural Cuenca Pampas y el proceso de participación de los beneficiarios en las decisiones, hasta su conversión en propietarios de la organización. Cambiando la orientación de la organización en función de la autosostenibilidad y de la participación directa de los beneficiarios en algunas de las etapas del ciclo del proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudio de caso correspondiente a la rehabilitación de la vivienda en donde nació la reconocida cantante ecuatoriana Carlota Jaramillo, que inmortalizó entre otros la música nacional, ubicada en la población de Calacalí. Construida con técnicas vernáculas de la serrania ecuatoriana, se rehabilitó para convertirla en casa-museo, volviendo a poner en práctica dichas técnicas de construcción, debido al estado ruinoso en que se hallaba, rescatando así un testigo patrimonial de arquitectura popular de inicios del siglo XX.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata sobre el desarrollo de una “Start Up” de base tecnológica desde la universidad. La empresa creada comercializará un servicio software para comedores y restaurantes. La actualidad está marcada por la economía, y en estos momentos nos encontramos con una tasa de paro general del 26,7%, en ingenierías (la UPM) es del 31,2%. El sector de las TIC se salva por el momento (en informática la tasa de paro es del 4,8%), aunque el trabajo en muchos casos es precario y las oportunidades para desarrollar una carrera plena pasan por ir a trabajar a otros países que tienen una situación laboral más favorable. También tenemos la alternativa de trabajar como autónomos, creando empresas y, con suerte, generando un nuevo empleo. En España existen iniciativas de ayuda pública y privada que ayudan a convertir ideas en empresas, incubadoras, aceleradoras, ayudas públicas, ferias tecnológicas, concursos que ayudan a ganar visibilidad, etc. Este proyecto nació gracias a una de estas iniciativas, más en concreto a ACTUA UPM, iniciativa de la propia UPM a través de la unidad Creación de Empresas. Para crear una empresa no basta un buen servicio o un buen producto, es necesario poder venderlo. Por lo que el primer esfuerzo debe realizarse en comprobar que nuestro producto tiene características que pueden cubrir una necesidad que ya existe y que las condiciones indican que puede ser rentable. Esta es la primera fase, la creación de un plan de negocio y de marketing. A continuación basándonos en la manera en la que decidimos que venderemos nuestro producto, orientaremos el desarrollo para hacer hincapié en los puntos fuertes que pueden hacer nuestro producto diferente y deseado. La fase de desarrollo es mi caso es sobre todo una fase de aprendizaje, en la que aprenderé a fondo tecnologías web y móvil, y aplicaré los conocimientos adquiridos en mis estudios. A continuación, se ofrece mi experiencia desarrollando la empresa desde la idea hasta conseguir un producto preparado para ponerlo a prueba. ---ABSTRACT---This paper is about the development of a technological based “Start Up” from the college. The company will market a software service oriented to canteens and restaurants. Economy is what rules the world, and today we are facing a very strong crisis with a 26.7% of unemployment rate in Spain. However, the IT sector is less affected than others by this crisis (Informatics Engineers has a 4.8% unemployment rate). But in many cases jobs are precarious and young people have to leave our country for pursuing a decent career. Also we have the option of self-employment, launching a company, and with some luck, creating a new job. We have some tools for launching new technological base business. Many people hopes to create the new Facebook, and many investors are interested in being on the boat if that happens. Also at UPM we have ACTUA UPM, which promotes ideas into companies. My idea was born in it and managed to the final round. For launching a new company you need to do a business plan that studies the possible pitfalls of your idea and directs your development efforts to the way your product is going to be sold. So the first phase of this paper will talk about the development of the business plan. After it, the development phase is in essence a phase of learning in which I faced most problems in my own, giving the best solutions I could from my own experience and intuition. Then, we present the experience of developing a Start Up from the idea to the market testing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito que ha motivado el estudio de la arquitectura de la villa de Cuéllar tiene la finalidad de dar a conocer su magnífico legado y evitar, si fuera posible, su total desaparición lo que ayudaría a la recuperación de su pasado cultural. Este propósito nació al ver su progresiva ruina cada año que visitaba la villa para pasar largas estancias veraniegas. Desde hace muchos años los días estivales transcurrieron entre las ruinas de las iglesias de San Francisco, San Martín, Santiago, Monasterio de la Armedilla, por las murallas del castillo-palacio abandonado y dentro de un núcleo urbano lleno de torres mudejares y casas de sillería. A la vez que estudiaba todos sus edificios buscaba por sus calles, plazas y capillas las rejas diseñadas en el antiguo taller de cerrajería de mi familia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acumula casi 13.000 dataciones y 10.000 análisis de biomarcadores; cerca de 45 publicaciones científicas se apoyan en sus resultados, y, entre otros logros, ha contribuido a poner fecha de antigüedad a los restos de los últimos neandertales de Europa, hallados en la cueva asturiana de El Sidrón, o a analizar el terreno elegido para almacenar residuos radiactivos. Es parte del imprescindible trabajo que desarrolla el Laboratorio de Estratigrafía Biomolecular, que nació hace más de veinte años a petición de Enresa y que, desde entonces, es toda una referencia en la investigación de los sedimentos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El DNS (Domain Name System) es un sistema que permite localizar equipos y servicios de Internet a través de nombres descriptivos organizados de forma jerárquica gracias a un mecanismo de consulta/respuesta. Cuando un usuario escriba un nombre de dominio en una aplicación, los servidores DNS podrán traducirlo a otra información asociada con él mismo, como una dirección IP o un alias, por lo que el DNS puede entenderse como una base de datos globalmente jerarquizada que nació a causa de la necesidad de poder recordar fácilmente los nombres de todos los servidores conectados a Internet. La necesidad del uso del DNS y su carencia en sistemas de seguridad, han conformado un entorno propicio para multitud de ataques, entre los que se encuentran el MITM (Man In The Middle), caché poisoning, negación de servicios o fugas de información entre otros, generando situaciones comprometidas para multitud de usuarios. Para poder contrarrestarlos se han ido implementando un conjunto de modelos de seguridad, entre los que destacan algunos como el DNSSEC, con su uso de firmas criptográficas , el WSEC DNS con identificadores aleatorios o el DNS Curve que cifraba todo el contenido transmitido. Este proyecto consta de una breve introducción al DNS, donde se podrá conocer su estructura y entender su funcionamiento. Posteriormente se pasará a analizar conceptos de seguridad web, particularizándose en un examen exhaustivo de las vulnerabilidades en el DNS. Finalmente se estudiarán distintos modelos de seguridad que se han ido implementando a lo largo del tiempo para intentar solventar estos problemas junto con sus ventajas y desventajas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El mundo actual es una fuente ilimitada de información. El manejo y análisis de estas enormes cantidades de información es casi imposible, pero también es difícil poder capturar y relacionar diferentes tipos de datos entre sí y, a partir de este análisis, sacar conclusiones que puedan conllevar a la realización, o no, de un conjunto de acciones. Esto hace necesario la implementación de sistemas que faciliten el acceso, visualización y manejo de estos datos; con el objetivo de poder relacionarlos, analizarlos, y permitir al usuario que, de la manera más sencilla posible, pueda sacar conclusiones de estos. De esta necesidad de manejar, visualizar y relacionar datos nació la plataforma Wirecloud. Wirecloud ha sido desarrollado en el laboratorio Computer Networks & Web Technologies Lab (CoNWeT Lab) del grupo CETTICO, ubicado en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Wirecloud es una plataforma de código abierto que permite, utilizando las últimas tecnologías web, recoger la información que se quiere analizar de diferentes fuentes en tiempo real e, interconectando entre sí una serie de componentes y operadores, realizar una mezcla y procesado de esta información para después usarla y mostrarla de la manera más usable posible al usuario. Un ejemplo de uso real de la plataforma podría ser: utilizar la lista de repartidores de una empresa de envío urgente para conocer cuáles son sus posiciones en tiempo real sobre un mapa utilizando el posicionamiento GPS de sus dispositivos móviles, y poder asignarles el destino y la ruta más óptima; todo esto desde la misma pantalla. El proyecto Wirecloud Mobile corresponde a la versión móvil de la plataforma Wirecloud, cuyo objetivos principales pretenden compatibilizar Wirecloud con el mayor número de sistemas operativos móviles que actualmente hay en el mercado, permitiendo su uso en cualquier parte del mundo; y poder enriquecer los componentes mencionados en el párrafo anterior con las características y propiedades nativas de los dispositivos móviles actuales, como por ejemplo el posicionamiento GPS, el acelerómetro, la cámara, el micrófono, los altavoces o tecnologías de comunicación como el Bluetooth o el NFC.---ABSTRACT---The current world is a limitless source of information. Use and analysis of this huge amount of information is nearly impossible; but it is also difficult being able to capture and relate different kinds of data to each other and, from this analysis, draw conclusions that can lead to the fulfilment or not of a set of relevant actions. This requires the implementation of systems to facilitate the access, visualization and management of this data easier; with the purpose of being capable of relate, analyse, and allow the user to draw conclusions from them. And out of this need to manage, visualize and relate data, the Wirecloud platform was born. Wirecloud has been developed at the Computer Networks & Web Technologies Lab (CoNWeT Lab) of CETTICO group, located at Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. Wirecloud is an open-source platform that allows, using the latest web technologies, to collect the information from different sources in real time and interlinking a set of widgets and operators, make a mixture and processing of this information, so then use it and show it in the most usable way. An example of the actual use of the platform could be: using the list of deliverymen from an express delivery company in order to know, using GPS positioning from their mobile devices, which are their current locations in a map; and be able to assign them the destination and optimum route; all of this from the same display/screen. Wirecloud Mobile Project is the mobile version of the Wirecloud platform, whose main objectives aim to make Wirecloud compatible with the largest amount of mobile operative systems that are currently available, allowing its use everywhere; and enriching and improving the previously mentioned components with the native specifications and properties of the present mobile devices, such as GPS positioning, accelerometer, camera, microphone, built-in speakers, or communication technologies such as Bluetooth or NFC (Near Field Communications).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El campo de los materiales textiles y afines no suele estar incluido dentro de la disciplina de Conocimiento de materiales o en ocasiones suele estar mínimamente contemplado dentro del área de materiales plásticos y polímeros; por lo cual en general suele ser muy desconocido en la formación de ingenieros y técnicos. Históricamente en las escuelas de ingenieros industriales se encontraba la especialización en industrias textiles, aunque con posterioridad pasó a formar una carrera propia como tal Ingeniero Textil. Es de resaltar también, la importancia del sector textil como de otros muchos que encajan perfectamente dentro de la denominada Ciencia Industrial y de las Escuelas de Artes y Oficios que tanto pueden contribuir al desarrollo industrial y económico de los países. En la actualidad, queda patente la importancia del sector textil tradicional así como de los nuevos materiales textiles con aplicaciones especiales o funcionales que están siendo de amplio desarrollo e investigación. Quisiera resaltar también la importancia en la ingeniería de los textiles técnicos así como de aquellas fibras con aplicaciones estructurales y sometidas a solicitaciones mecánicas, térmicas, de aplicación militar, material deportivo, etc. También es de resaltar las aplicaciones en cordelería industrial, cabos, maromas, etc., de multitud de aplicaciones en sujeción, elementos mecánicos y estructurales. Lo que se pretende con esta compilación de cuestiones relacionados con textiles obtenidas de diversas fuentes, que nació como un resumen sobre materiales textiles y fibras para cursos de postgrado de la Universidad Politécnica de Madrid, es recoger de una forma fácilmente accesible, más completa y extensa, de fácil consulta, aquellos aspectos relacionados principalmente con la naturaleza de las fibras que normalmente se encuentran muy dispersos. Fundamentalmente se tratan aspectos como caracterización de fibras y tejidos, mezclas de fibras, tintes y tinción, funcionalidad y confort, análisis y control de calidad de producto acabado desde el punto de vista de aptitud al uso, caracterización morfológica de las fibras por microscopía, análisis químico cuantitativo según Normas y Directivas de la UE más actuales, características de los textiles en el campo de la restauración de patrimonio artístico, análisis forense de las fibras, etc. A partir de mi formación en ingeniería industrial, conocimiento de materiales dentro del campo de los polímeros y mi experiencia en análisis y control de calidad dentro de un laboratorio textil, así como cursos impartidos sobre análisis y control de calidad en tejidos; creo tener el bagaje suficiente para poder afrontar esta tarea y proporcionar una obra de consulta y ayuda a las personas interesadas en este campo del conocimiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Cómo están cambiando las ciudades a comienzos del siglo XXI? ¿Qué importancia tiene la globalización en el entorno más cercano que podemos encontrar: nuestro barrio? El fenómeno urbano conocido como gentrificación está actuando con fuerza en los centros históricos de muchas ciudades europeas. Madrid no es una excepción, y las tendencias demográficas, comerciales e inmobiliarias de los últimos años en la ciudad la sitúan como una afectada más por este movimiento. Chamberí es un distrito que nació con identidad obrera, pero poco a poco fue elevando su posición social y se alzó como una zona acomodada de Madrid. Presenta los problemas comunes del centro consolidado de una ciudad: dificultades de crecimiento y renovación. En los últimos años está sufriendo numerosos cambios que, aunque no son visibles en el día a día, muestran una tendencia común algo diferente a la de la ciudad de Madrid. Para detectar si Chamberí se suma a la cada vez más presente gentrificación de las áreas históricas de las ciudades, este trabajo realiza el estudio analítico del distrito y de los barrios que lo componen mediante las variables estadísticas disponibles en el Ayuntamiento de Madrid. Se analizan los cambios producidos en los últimos años en una de las áreas más antiguas de la capital y se relacionan con una posible tendencia de gentrificación que, afectará en mayor medida a unos barrios que a otros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El consumo mundial, impulsor del desarrollo y crecimiento económico de los pueblos, no ha sido igual para todas las naciones, ya que sus efectos han sido diferentes para los ciudadanos de los países del Norte y los del Sur, principalmente por dos razones: una, porque han originado complejos y diferentes estilos de vida y aspiraciones, lo que ha originado grandes diferencias entre los individuos de unos y otros países, y, dos, por su falta de valores sociales y éticos. Ante esta situación, la sociedad en su conjunto debe tomar conciencia de este hecho, y a través de un consumo responsable y de un mayor conocimiento de las relaciones comerciales entre los pueblos, debe optar por consumir productos elaborados bajo criterios de justicia y equidad. Para ayudar a alcanzar estos objetivos de equidad, solidaridad, justicia y ética, nació el Comercio Justo, que, en el caso de España, llegó con veinte años de retraso en la década de los ochenta. Aunque a día de hoy sus ventas crecen a un buen ritmo, siguen siendo inferiores al resto de los países europeos, por cuatro razones: (1) el desconocimiento que la mayoría de los potenciales consumidores tienen de este movimiento social; (2) la dificultad de acceder a los productos que comercializan; (3) el poco impulso que se ofrece desde las Administraciones Públicas; y, (4) porque hay pocas investigaciones en las que se haya analizado el Comercio Justo desde la perspectiva de la demanda, lo que ha implicado que no haya un conocimiento profundo sobre los consumidores de este tipo de productos y sobre sus motivaciones de compra. En base a todo lo expuesto, el presente trabajo se concibe como un estudio exploratorio, que tiene como objetivo principal analizar el perfil de los consumidores y no consumidores de productos de Comercio Justo, sus motivaciones de compra y no compra, así como las variables que influyen en la intención de compra futura, tanto en el segmento de consumidores actuales, como en el segmento de no consumidores de este tipo de productos. Para la realización de este trabajo, se ha utilizado, por una parte, una metodología cualitativa, que ha permitido acceder a la información sobre las opiniones y actitudes que intervienen en los procesos de decisión de compra; y, por otra, una metodología cuantitativa, a través de una encuesta online dirigida a 6.500 individuos, que ha permitido tener información, a través de sendos análisis descriptivos univariante y bivariante, de los individuos encuestados sobre el objeto del estudio. Para validar los modelos y contrastar las hipótesis planteadas, se ha utilizado el análisis de fiabilidad y validación de las escalas de medición seleccionadas (Alpha de Cronbach); el análisis factorial exploratorio, para comprobar la dimensionalidad y validez convergente de las escalas de medida; el análisis factorial confirmatorio, para validar la idoneidad de los modelos de medida propuestos; la regresión logística, para comprobar la validez del modelo general de la probabilidad de la compra o no compra de productos de Comercio Justo; y la regresión lineal múltiple, para comprobar la validez de los modelos específicos de intención de compra futura en los segmentos de compradores y de no compradores. Para realizar todos estos análisis, se han utilizado las herramientas informáticas SPSS v21 y AMOS. Las principales conclusiones del trabajo son: (1) que se deben establecer unos criterios claros que definan quién es quién en el movimiento de Comercio Justo, sus fines, sus objetivos, los productos que comercializan, así como su funcionamiento y desarrollo en España; (2) que, a pesar de las grandes ventajas y posibilidades del Comercio Justo, hay una falta de demanda de estos productos por parte de los consumidores responsables, debido principalmente a la falta de información-comunicación sobre el propio movimiento, y, muy especialmente, a la falta de información sobre los productos, los canales de comercialización, las políticas de precios, las políticas de comunicación, etc., y a la necesidad de que estos productos estén accesibles en los lugares donde los consumidores hacen su compra habitual; y (3) que el Comercio Justo español debe afrontar una serie de desafíos, como son la coordinación entre las diferentes organizaciones que participan en su desarrollo; la sensibilización de los consumidores; la creación de una imagen de marca que defina de una manera clara y sencilla qué es el Comercio Justo; la orientación al cliente y no al producto; y extender la red de comercialización de productos de Comercio Justo a los canales donde los consumidores hacen su compra habitualmente. ABSTRACT Global consumption, the driver of economic growth and development of nations, is not the same for all countries, since its effects have been different on people coming from the North or the South. This is due mainly to two reasons: firstly, because they have developed complex and different lifestyles and aspirations, which have led to significant differences between individuals of one country and another and secondly, because they lack social and ethical values. Given this situation, society as a whole should be aware of this fact, and through responsible consumption and a greater knowledge of trade relations between countries, should opt for consuming products produced with criteria of justice and equity. Fair Trade began as a way to help reach these goals of equity, solidarity, justice and ethics. In the case of Spain it did not start until 20 years later, in the eighties. Although today sales of Fair Trade products are growing at a good rate, they are still below that of other European countries, for four reasons: (1) unawareness of this social movement; (2) the difficult access to these products; (3) insufficient government support; (4) the limited research carried out to analyse Fair Trade from the perspective of demand, resulting in a lack of knowledge about this type of consumer and their purchasing motivations. Based on the above, the present study is designed as an exploratory investigation, aimed at analyzing the profile of consumers and non-consumers of Fair Trade, their motivations for buying and not buying, as well as the variables which influence future purchase intention in both the current consumer segment, and the non-user segment of such products. To carry out this study we have used, on the one hand, a qualitative methodology, to obtain information about the views and attitudes involved in the purchase decision process; and on the other, a quantitative methodology, through an online survey of 6,500 individuals, which provided information through two separate univariate and bivariate descriptive analysis, of the individuals interviewed about the object of this study. To validate the models and contrast hypotheses, we have used the reliability analysis and validation of the selected measurement scales (Cronbach's Alpha); exploratory factor analysis to verify the dimensionality and convergent validity of the measurement scales; confirmatory factor analysis to validate the adequacy of the models of measurement proposed; logistic regression, to verify the validity of the general model of the probability of buying or not buying Fair Trade products; and multiple linear regression to test the validity of specific models in future purchase intention in the segments of buyers and non-buyers. To carry out these analyses, we used SPSS v21 software tools and AMOS. The principal conclusions of the investigation are: (1) the need to establish clear criteria which define who is who in the Fair Trade movement, its goals, objectives, the products they sell, as well as its operation and development in Spain; (2) that despite the great advantages and possibilities of Fair Trade, there is a lack of demand for these products by responsible consumers, mainly due to the lack of information-communication about the movement itself, and especially on the range of products, sales channels, pricing policies, communication policies, etc., and the need for these products to be available in places where consumers make their usual purchase; and (3) that Spanish Fair Trade must address a number of challenges such as: coordination between the different organizations involved in trade development; consumer awareness; creation of a brand image that defines in a clear and simple way what Fair Trade is; focus on the customer rather than the product; and expansion of the network of Fair Trade sales outlets to include the channels where consumers usually make their purchases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las redes IP ha marcado un creciente interés por unificar todas las comunicaciones sobre una misma infraestructura aprovechando así el cableado existente. Con esta idea nació la tecnología conocida como VoIP (Voice Over Internet Protocol) que consiste en la trasmisión de la voz sobre paquetes IP. El objetivo principal de este proyecto es el diseño e implementación de una infraestructura de voz sobre IP que utilice una red de datos existente. La primera parte del proyecto estará formada por un estudio detallado de los factores que influyen en esta tecnología: codecs, protocolos y otros factores a tener en cuenta. Tras esta parte, aprovechando la experiencia adquirida durante casi tres años en una empresa integradora de servicios, se realizará un caso de estudio en el que, bajo las premisas impuestas por un supuesto cliente, se diseñará una solución que cumpla todos los requisitos y aporte un valor añadido sobre el sistema de telefonía que posee el cliente. El diseño de la mejor solución se hará utilizando productos del fabricante Cisco Systems y, además del coste económico, se valorarán los esfuerzos personales que costará montar dicha solución, incluyendo un valor añadido como es el dotar de buzón de voz y mensajería a todos los usuarios. La última parte del caso de estudio consistirá en la implementación de la infraestructura anteriormente diseñada adquiriendo conocimientos sobre virtualización de servidores utilizando productos de la compañía VMWare (especialista en virtualización), instalación y parametrización de aplicativos de Cisco y, finalmente, la interconexión con la red pública a través de gateways para poder hacer llamadas al exterior. El proyecto finalizará con la presentación de unas conclusiones finales y la exposición de unas líneas futuras de trabajo. ABSTRACT. The IP network development has marked a growing interest in unifying all communications over the same infrastructure taking advantage of the existing wiring. From this idea, a technology was born known as VoIP (Voice Over Internet Protocol) which consists of the transmission of voice packets over the IP network. The main goal of this project is the design and implementation of a VoIP infrastructure for transmitting voice packets over the existing wired network infrastructure on the client. The first part of the project will consist of a detailed study of the factors influencing this technology: codecs, protocols, and other factors to consider. After this part, drawing on the experience gained during nearly three years in an integrated services company, a case study will be made under the premises imposed for a supposed client. A solution that serves all the requirements will be designed and provide an added value on the customer’s telephone system. The design of the best solution will be done using Cisco Systems products and besides the economic cost of the whole solution, the personal effort cost will be valued. The added value named before will be provided with two important applications such as voice mail and instant messaging for all users. The last part of the case study will consist in the implementation of an infrastructure designed to acquire knowledge about virtualization, using VMWare company products (specialist in virtualization), installation and configuration of applications from Cisco Systems and finally the interconnection with the public network through gateway routers in order to make external calls. The project will end with the presentation of final conclusions and exposing future working lines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema objeto de esta Tesis, el Fragmento y la Abstracción, es una propuesta de análisis sobre el diálogo entre el fragmento como object trouvé y la abstracción, como un modo de proceder por parte del autor en el proyecto de arquitectura. En un principio, tal vez la creación artística nació como un intento por comprender la complejidad del mundo en que el ser humano vivía. Y se dedica a establecer un diálogo con el fragmento, a veces buscando su significado como parte de una historia desconocida, otras como parte de su propia historia pero también como referencia a una etapa mítica, convirtiéndose en símbolo de un paraíso perdido. El fragmento ha dado lugar al diálogo entre obra y autor tanto en música como en literatura o pintura. Esta tesis intenta analizar dicho diálogo en la arquitectura. Esta investigación comienza interrogándose sobre el sentido del fragmento y la abstracción como el modo de pensamiento leve, en definición de Italo Calvino, que nos permite conectar las ideas más alejadas. Para ello, se propusieron cinco modelos para explorar dicha relación. Los edificios elegidos fueron 1.- Villa Adriana 2.- Palacio de Carlos V en la Alhambra 3.- La casa- museo de Sir John Soane 4.- El Carmen de Rodríguez-Acosta 5.- Castelvecchio Dos de ellos residencies imperiales (1 y 2) Dos fortalezas (2 y5) Dos casas-estudio (3 y 4) Las cinco tienen relación con jardines De sus autores no todos son conocidos Tres de ellos se dedicaron a la docencia en arquitectura. Los cinco tienen carácter museográfico. P.D. Durante la investigación, para relacionar a unos y otros, se introdujo a Gian Battista Piranesi como importante nexo de unión entre antigüedad y modernidad. ABSTRACT The subject of this Thesis “Fragment and Abstraction, is a purpose of analysis about the dialogue between fragment as object trouvé and abstraction, as a way to do by the author in the architectural project. At first, we suppose historically that artistic creation is born as a way to understand the complexity of the world where the human beings lives. They tried to stablish a dialogue with the fragment, looking for its meaning, sometimes as the part of an unknown story, sometimes as part of their own history, but sometimes as reference of mythic times, becoming a symbol of a lost paradise. In arts, fragment is at beginning of many dialogues between craft and the author, as we know in music, literature or painting. This thesis try to analyze this dialogue in architecture. This investigation began asking for the meaning of fragment as something what was broken out from something we do not know, and abstraction as an immaterial way of thinking which let us connecting the most far ideas. Therefore, five architectural model were proposed, in order to explain that relationship. The chosen buildings were: 1- Villa Adriana 2- Charles V Imperator’s Palace at la Alhambra 3- Sir John Soane House -Museum 4- Rodríguez –Acostas’s Carmen 5- Castelvecchio by Carlo Scarpa There are: Two Imperial palaces (the 1st and 2nd), Two fortresses (the 2nd and 5th) Two House-Artist Studio (the 3rd and 4th) Five types of relationship with gardens. The authors, from them, we do not know some of them Three of the architects used to teach architecture All of them went to Rome Now the five buildings have become museum institution.During the investigation, in order to explain the relationship between them, I introduced Giambattista Piranesi as an important nexus to understand the transition from the antiquity to the modernity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El triatlón es un deporte combinado en el que sin solución de continuidad se hace un tramo de nado, en aguas abiertas, seguido por uno de ciclismo, para terminar en carrera a pie. Las distancias son muy variadas, aunque la que nos importa en esta tesis es la de-nominada olímpica: 1.500 metros nadando, 40 km en bicicleta y 10 km en carrera a pie. Es un deporte joven, nació a finales de los 80 y es olímpico solo desde los JJ. OO. de Sídney 2000. Sin embargo, esta juventud le ha hecho crecer con fuerza y con muchas ganas de conocerse por dentro a sí mismo. La elección de este deporte se debe, entre otros factores, a la afinidad personal como entrenador del equipo nacional en dos JJ. OO. Por otro lado, al ser un deporte que se desarrolla al aire libre hace que sus par-ticipantes estén expuestos a los cambios climáticos, por lo que la adaptación a los mismos es un factor que juega a favor de la mejora del rendimiento. Cuando la temperatura del agua donde se nada es baja se permite la utilización de un traje especial de neopreno que aísla de dicha temperatura. Ambos elementos, neopreno y clima, están directamente relacionados con el resultado final de la prueba. El objetivo de la presente investigación es demostrar cómo la utilización del neo-preno influye en el resultado final de la misma y cómo las condiciones de calor también tienen una clara influencia en el resultado de la competición de élite femenino en triatlón olímpico de élite internacional. Realizado el análisis de los resultados de la competición de máximo nivel internacional entre 2005 y 2014 (382) participantes y 2.500 participaciones, claramente, los resultados obtenidos determinan que el uso del neopreno hace que la natación sea más rápida y que el calor influye negativamente en el ritmo de carrera a pie. ABSTRACT Triathlon is a combined sport consisting on open water swimming, cycling and running, one after the other with no stops. Distance of the segments can vary, however this thesis will be focus in the called olympic distance: 1.500 meters swimming, 40 km cycling and 10 km running. It´s a relatively new sport, born in the final 80´s, and olympic since Sydney Olympic Games in 2000. Nevertheless, it´s growing fast and there´s a high inte¬rest in knowing all the aspects of it. The choice of triathlon is due, between other reasons, to the special personal affi¬nity with the sport, coming from being the principal trainer of the Spanish Na¬tional Team in two different Olympic Games (Sydney 2000 and Athens 2004). As an outdoor sport, participants are exposed to weather changes and their adaptation to them plays a role in the final performance. When the water tem-perature in the swimming section is bellow certain degrees (20º C in the case of the olympic distance), a special isolation wetsuit is allowed for swimming. Both elements, weather and wetsuit, are related with the final results. Main goal of this paper is to show the influence of the use of wetsuits in the final results, and how hot weather clearly impacts the result of the female elite races in olympic triathlon. Results from highest performance competitions between 2005 and 2014 has been analysed. 382 participants and 2.500 participations. Results show clearly that the use of a wetsuit makes swimming faster and high temperature makes running slower.