15 resultados para Poblados

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis aborda el estudio de los poblados dirigidos de renta limitada en Madrid, enmarcados en el plan Nacional de vivienda de 1955. Para contextualizar la actuación se estudian las diferentes estrategias de la Administración para erradicar el chabolismo en el extrarradio de Madrid, crear vivienda digna y generar empleo. Uno de estas estrategias que carccteriza los poblados dirigidos, es la "prestación personal" o autoconstruccón que permite a los inmigrantes procedentes del campo sin cualificación acceder a una viviendo digna aportando su propio trabajo los domingos y días de flesta. El interés de esta tesis radica en la investigación, propuesta y experimentación que los poblados dirigidos suponen en el campo de la vivienda social en nuestro pais, que rompen con lo arquitectura estatal ejecutada para viviendo modesta hasta la fecha. Esta actuación es relevante y significativa en la arquitectura de la segunda mitad del siglo XX y sus arquitectos, por entonces jóvenes entusiastas de la arquitectura foránea, son maestros reconocidos de la arquitectura española contemporánea. El objetivo fundamental de la tesis es descubrir, a través del dibujo y el análisis crítico comparativo de las distintas tipologías de vivienda las estrategias empleadas por los arquitectos para conciliar la arquitectura de vanguardia con los necesidades específicas de los adjudicatarios, el sistema de prestación personal y la escasez de medios del momento. Se analiza cómo estas viviendas de los poblados sirvieron de via para introducir el tenguaje del Movlmiento Moderno en la arquitectura social de la época, descubriendo por medio del análisis tipológico si se trata de una adaptación del lenguaje a unas necesidades, concretos o una implantación importada. Resulta Fundamental el estudio de la legislación, la bibiiograffa y revistas, las entrevistas personales a arquitectos protagoniatas y un laborioso trabajo de campo que permite llevar a cabo una radiografía de la realidad construida de los poblados en el estado actual. Se emplea el dibujo como herramienta de lnvestigación a partir de los proyectos originales obrantes en los numerosos archivos consultados y se aportan díbujos de todas las tipologías de las viviendos de los poblados dirigidos de renta limitada, incluso las no construidas, sacando a la luz tipologías no publicadas hasta la fecha. Esta documentación gráfica e1oborada, representa por si misma una conclusión y aportación relevante de este trabajo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la tesis se estudian los criterios urbanísticos utilizados por los técnicos del Instituto Nacional de Colonización en su actuación dentro del marco del plan Badajoz, centrando dicho estudio en una de las zonas regables en las que se dividía el ámbito del plan: la zona regable de Montijo. Tras situar históricamente el hecho, se profundiza en la dinámica y la mecánica del instituto, y se describe ordenadamente la intervención en el lugar seleccionado,analizando: a) el planeamiento realizado. b) los proyectos de los nuevos poblados. c) el desarrollo urbanístico de los mismos. Por último, se procede a la crítica de los proyectos enumerados, extrayendo conclusiones globales sobre la bondad de la intervención, observando su adaptación al medio y su evolución en el tiempo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El legado de una época, una situación social y unos criterios arquitectó- nicos, aparece recogido en el trazado urbanístico de los poblados de coloniza- ción de V aluengo y La Bazana en Jer ez de los Caballer os (Badajoz, 1954), proyectados por Alejandro de la Sota en su etapa al servicio del Instituto Nacional de Colonización. En estos proyectos se plantea un proceso de modernización velado, oculto tras unas construcciones sencillas, donde la arquitectura surge como respuesta a una realidad territorial, social, cultural y a unas estrictas imposi- ciones prefijadas, que se resuelven mediante planteamientos arquitectónicos en los que el diseño de los vacíos urbanos con contenido, son el eje fundamental sobre el que se organiza la trama urbana

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El articulo analiza la relación entre la estructura territorial y la formación de nuevos paisajes culturales en la Patagonia chilena como resultado de las explotaciones mineras en la ribera norte del lago General Carrera. El análisis recoge las definiciones y significado del paisaje desarrollado en la tesis doctoral (Marco teórico y Capítulo 2)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El legado de una época, una situación social y unos criterios arquitectónicos, aparecen recogidos en el conjunto de edificios y en la trama urbana, de los pueblos de colonización de La Bazana y Valuengo (Jerez de los Caballeros, Badajoz, 1954), proyectados por Alejandro de la Sota durante la etapa en la que trabajó de forma externa para el Instituto Nacional de Colonización (INC). Al inicio de esta investigación no se habían realizado análisis en profundidad ni valoraciones críticas de su arquitectura, ni eran objeto de estudio en los ambientes universitarios, siendo prácticamente desconocidos para el conjunto de la profesión, que solía tomar como referencia de esta etapa de la arquitectura de Alejandro de la Sota para el INC, el poblado de Esquivel, en Sevilla, profusamente publicitado. Aunque en los últimos tiempos se han elaborado tesis en las Escuelas de Arquitectura abordando el tema de la colonización agraria en España en la década de los 50, los poblados de colonización en Extremadura o la arquitectura de Alejandro de la Sota para el INC, la presente tesis se aleja de la visión global unificadora o biográfica, para centrarse en el estudio monográfico de un objeto arquitectónico singular. El trabajo pretende documentar, estudiar, analizar y poner en valor, estas obras enclavadas en la arquitectura española de la década de los 50, denominados por su propio autor como “pueblos todo de plazas”, donde la arquitectura surge como respuesta a una realidad territorial, social y cultural, y a unas estrictas imposiciones prefijadas, que se resuelven teniendo como punto de partida las condiciones materiales y culturales del lugar en el que se ubican, para concluir planteando interpretaciones y lecturas que incorporan la tradición, pero que trascienden a ella. La metodología empleada consiste en un trabajo de documentación y análisis del objeto arquitectónico en tres fases: proyecto, obra construida y estado actual. En cada una de las fases se realiza un trabajo de campo consistente en la recopilación de la documentación original y en la elaboración de una nueva documentación gráfica, en base a los estudios y análisis realizados. El cotejo entre los datos obtenidos de los proyectos, las obras inicialmente construidas y el estado actual, darán como resultado un material de análisis inédito, que junto con la bibliografía incluida en el trabajo y los anexos que contienen la documentación original recabada sobre las obras en los organismos e instituciones que la custodian, ofrecen una interpretación más precisa de la realidad arquitectónica de estos pueblos, dejando el estudio abierto a nuevas vías de investigación que profundicen en la hipótesis del espacio vacío como organizador y colonizador del paisaje. ABSTRACT The legacy of an age, a social situation and a group of architectural criteria, appears reflected in the group of buildings and the urban design of colonization villages La Bazana and Valuengo (Jerez de los Caballeros, Badajoz, 1954), designed by Alejandro de la Sota during the time that he was working externally to the National Institute of Colonization(INC). At the beginning of this investigation they had not been analyzed or critically evaluated in depth and not even were being studied in university circles and for this reason were practically unknown to the profession, who used as a reference of this architecture period of Alejandro de la Sota for the INC, the colonization village of Esquivel in Seville, widely publicized. Although recently some doctoral thesis have been elaborated in the Architecture Schools about the topic of rural colonization in Spain in the 50s, the colonization villages in Extremadura or the architecture by Alejandro de la Sota for the INC, this thesis wants to get away from unifying or biographical overview, in order to centre the study about a singular architectural object. The work expects to document, study, analyze and push the value of this architectural pieces nestled in the Spanish architecture of 50s,and that were named by their author as “squares-villages”, where the architecture appears like answer to a territorial, social and culture reality, and a strict program impositions by the INC, which are solved by the architect taking as a starting point the material and cultural conditions from the place where are situated, to conclude with a interpretations and readings which incorporate the tradition and transcend it. The methodology used consists in documenting and analyzing work about the architectonic object in three stages: project, building and present state. In every stage, we make a field work in order to compile the original documents and at the same time a new graphical documentation is developed with the studies and analysis that were made before. The information about the projects, the architecture built at the beginning of the process, and the current state were compared and achieved an unpublished material which together with the bibliography and original documents, collected in the organizations and institutions that guard them, offer a more accurate interpretation about the architectural reality of these villages, leaving the study open for a new research which could go into detail about the hypothesis of urban empty space as element for colonize and organize the landscape.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Perú se han desplegado diferentes intentos de modelos de regionalización, habiendo partido desde una simple demarcación territorial, sin identificación de competencias que configuren territorios autogestionarios. Subyacente a este modelo, se han identificado claras deficiencias de competencias institucionales conducentes a un modelo sustentable de desarrollo. Además de las deficiencias mencionadas, no se han reflejado intenciones de articular fortalezas-competencias entre regiones, que permitan a través de sinergias, promover programas y proyectos de cooperación al desarrollo. La propuesta a abordar, apunta de reunir pueblos-mancomunidades, bajo una visión de complementación de competencias, a través de la cual desarrollar proyectos colaborativos que permitan explotar los recursos de dichas mancomunidades con ventajas competitivas propias. La propuesta en mención parte de identificación de fortalezas y debilidades sobre poblados en Perú, con una visión de complementariedad, la cual permita configurar un conjunto de fortalezas sobre las cuales desarrollar proyectos conducentes a un desarrollo sustentable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto comprende el estudio de los montes siguientes: -" Monte de Pomar y San Félix de las Montañas" -" Monte de Fuentes de l a s Montañas" -“Monte de Monasterio de Goto" -" Monte de Vega de Orreo" -" Monte de Combo" -“Monte de Valde buoyes" -" Monte' de M u ñ i d l o s" -" Monte del Pueblo de Rengos" -“Montes de Larony La Viliella " -" Montes de Degaña y Cerredo" -" Monte de Monasterio de Hermo" de los cuales los diez primeros están poblados por roble y el ultimo por haya.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Habitualmente se considera que en los inventarios forestales realizados con tecnología LiDAR no existe error de muestreo. El error en la estimación de las variables se asimila a la bondad de ajuste obtenida en la regresión que se usa para la predicción de dichas variables. Sin embargo el inventario LiDAR puede ser considerado como un muestreo en dos fases con estimador de regresión, por lo que es posible calcular el error que se comete en dicho inventario. Se presenta como aplicación el inventario de los montes de Utilidad Pública números 193 y 194 de la provincia de Soria, poblados principalmente con masas de repoblación de Pinus sylvestris. Se ha trabajado con una muestra de 50 parcelas circulares de 11 metros de radio y una densidad media de datos LiDAR de 2 puntos/m2. Para la estimación del volumen maderable (V) se ha ajustado una regresión lineal con un coeficiente de determinación R2=0,8985. Los resultados muestran que los errores obtenidos en un inventario LiDAR son sustancialmente menores que los obtenidos en un muestreo sistemático por parcelas (5,1% frente a 14.9% en el caso analizado). También se observa que se consigue un error de muestreo mínimo para la estimación del volumen cuando la regresión se realiza pixeles de tamaño igual al de la parcela de muestreo en campo y que para minimizar el error a nivel de rodal es necesario maximizar el rango de aplicación de la regresión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fragmentación espacial de una ciudad, que será el principal enfoque de la presente Tesis, ocurre cuando una entidad pequeña se ve obligada a adecuar sus relaciones ante la inminente presencia de un entorno urbano de mayor peso que se aproxima y densifica. Este tipo de fragmentación se analizará tomando en cuenta tres factores (especulación, desorganización y falta de protección) que moldean el desarrollo de procesos urbanísticos modernos en las grandes metrópolis Latinoamericanas, particularmente en la Ciudad de México. La Ciudad de México tuvo un desarrollo altamente competitivo, que ha sido también el catalizador de un largo y sostenido crecimiento urbano. Con el pasar del tiempo, la capital ha sobrepasado las expectativas de los más visionarios. El estudio detallado del asentamiento de Tacubaya (el cual conforma una parte dinámica de la Ciudad de México), permitirá al lector evaluar el extravagante crecimiento que ocurre en la Ciudad de México y los asentamientos que lo rodean, en la primera mitad del siglo XX. Tacubaya, así como muchos de los pequeños poblados preexistentes que se ubicaban en las afueras de la gran urbe, fue alcanzado y engullido por la mancha urbana, sufriendo importantes cambios en su núcleo urbano. Sin embargo, partes de esta antigua centralidad han persistido junto con una parte de los elementos urbanos que la estructuraban; monumentos y riquezas históricas, los cuales han facilitado la reinvención de su centro urbano, sobreviviendo tanto a los abates del tiempo como a las oleadas de nuevos pobladores. El lugar que permanece es un centro urbano sumamente fragmentado, permeado por: una incesante superposición de tejidos y elementos estructuradores olvidados, poblaciones flotantes y de paso que desestabilizan las zonas residenciales, estratos sociales cada vez más apartados. Pensaríamos que las circunstancias que envuelven la demarcación la han dejado en caos, sin embargo, para la sorpresa de muchos, Tacubaya se sigue adaptando a pesar de todos los obstáculos. ABSTRACT In urbanism, the type of spatial fragmentation, that will be the main focus of this Thesis, occurs when a stronger and denser environment takes over a smaller entity, forcing it to adapt its functional relations. This type of fragmentation will be analyzed taking into account three specific factors (speculation, disorganization, and lack of protection) that mold the development of modern urbanistic processes in large Latin American cities, particularly in Mexico City. Mexico City had a highly competitive and bright development, which served as catalyst in a long and sustained urban growth. With the passing of time, the capital has outgrown the measures, previsions and administrative limits created by the government and its visionaries. The detailed study of the Tacubaya settlement (which conforms a vibrant part of Mexico City) will allow the reader to appreciate the exceptional and rare growth that occurs in Mexico City and in the settlements that surround it, in the first half of the 20th century. Tacubaya as well as many other small preexisting settlements located on the outskirts of the city, has been engulfed by the urban expansion suffering important changes in its urban core. Parts of the ancient centrality have persisted along with its structural urban elements, due mainly to monuments and other historical entities that have facilitated the reinvention of the downtown area, helping it survive not only the passing of time, but also the incrementing population. The city that now exists is fragmented beyond recognition. Tacubaya is permeated by an endless fabric overlay created by forgotten structural elements, floating populations that affect the residential zones, and a polarized society that diverges with every passing day. We may think that the circumstances that surround the city have left it in shambles; however, to the surprise of many, Tacubaya is still adapting in spite of all the obstacles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La importancia de conocer bien el entorno para un proyecto arquitectónico es que podemos adaptarlo a nuestras necesidades fisiológicas de Confort Térmico. Podemos decir entonces que el edificio juega un papel fundamental como técnica de control de nuestro entorno. El edificio nos debería entregar un entorno controlado para que nos sintamos bien térmicamente, considerando además, que la arquitectura por sí misma puede lograr dicho confort la mayor parte de las veces. De no ser así, los usuarios tienden a colocar elementos mecánicos, para generar frío o calor artificialmente. Es fundamental entonces que nuestros edificios, tengan una correcta interacción con los recursos naturales del lugar para lograr dicho confort térmico. Pero lograr el Confort Térmico en todos los edificios de una ciudad como unidad, no logrará que la ciudad entera sea confortable térmicamente, ya que las complejas interacciones hacen que la problemática se deba enfrentar como algo sistémico. Esto quiere decir, que para que una ciudad o un conjunto logren la Confortabilidad Térmica deseada por sus habitantes debiera haber sido planificada conforme a variables urbanas que interactúen con el medio natural en forma eficiente. Con la observación de ciertos conjuntos habitacionales antiguos en el interior del Valle del Elqui, Chile y de sus relaciones entre variables urbanas y naturales, queda de manifiesto ciertas características que conllevan a pensar que existió una planificación ambiental en éstos que llevaron a lograr un conjunto con características bioclimáticas. Las evidencias de la existencia en primer lugar de un patrón urbanístico en dichos conjuntos habitacionales antiguos, hacen pensar que dicho patrón se trataría de un patrón bioclimático rural planificado, lo que hace que exista un gran interés por el estudio de estos conjuntos. Hasta ahora, en Chile, los pocos estudios de Confort Térmico que existen, están orientados a edificaciones aisladas, al Confort térmico interior de la edificación en el ámbito urbano, y en nada a Patrones Bioclimáticos de Conjuntos Habitacionales en una situación de ruralidad como a la referida en esta investigación. Además, los estudios referidos al clima urbano, difieren a los del clima rural, por lo que se necesitan mayores estudios aún para comprender mejor la problemática. Es por esto, que la mayoría de los casos mencionados en este estudio son contextualizados al ámbito urbano por carecer de otros estudios rurales. Es en este sentido que esta investigación cobra real importancia y pretende establecer la relación existente entre las variables morfológicas rurales y los recursos naturales del lugar y que generan un confort térmico ideal para sus habitantes, al mismo tiempo, se analiza la existencia de un Patrón Bioclimático en un poblado denominado Algarrobito ubicado en la cuenca del Valle del Elqui, Chile. Es en este sentido que el propósito principal de este trabajo es determinar la real existencia de un Patrón Bioclimático que relacione la morfología rural y edificada de los antiguos poblados pertenecientes a la cuenca del Valle de Elqui Chile con el microclima del lugar. La metodología empleada se basa en realizar primeramente el estudio del microclima del lugar a través de las Cartas Bioclimáticas. Para ello se obtuvo información de datos climatológicos de las estaciones meteorológicas ubicadas en la cuenca del Valle de Elqui, principalmente las más cercanas al lugar de estudio. Mediante una revisión exhaustiva de la información arquitectónica, así como de una labor de reconocimiento en terreno realizada en el poblado seleccionado y de la aplicación del Climograma local, se identificaron las diferentes zonas bioclimáticas del poblado antiguo y potenciales áreas de estudio en el conjunto. Esta actividad incluyó un estudio preliminar de la energía solar local, vientos, humedad, temperaturas y su interacción con el conjunto, permitiendo una primera aproximación a la problemática del espacio exterior y las viviendas. Esto permitió en base a las condicionantes del lugar, la arquitectura vernácula y los materiales descubrir un Patrón en el antiguo conjunto que permitía entregar confortabilidad térmica a sus habitantes y darse cuenta también, que el nuevo conjunto emplazado en el sector no seguía ese patrón con las disfuncionalidades que ello llevaba. Con esto quedó demostrado en primer lugar la existencia de un Patrón Bioclimático rural, los beneficios del patrón, la importancia de éste como causante de Confortabilidad Térmica del conjunto, y por ende de mejor eficiencia energética, así como también, que el nuevo conjunto no sigue para nada este Patrón, pero que existe también la posibilidad de rectificación y por supuesto, que los nuevos desarrollos residenciales del Valle del Elqui, puedan planificarse en base al patrón bioclimático descubierto. ABSTRACT Knowing the environment of an architectonic proyect is really important for adjusting it to our physiological needs of Thermal Comfort. So we can say that the building plays a key role as a technique of control of our environment. The building should give us a controlled environment to make us feel good thermally, and it usually can reach pleasurable temperatures by itself. If it isn't like that, people cooled or heated the ambience with mechanical elements. So a correct interaction between the buildings and natural resources is important to reach a thermal comfort. But achieving Thermal Comfort in all the buildings of a city as a unit will not achieve the whole city is thermally comfortable, because the complex interactions cause the problem needs to be solved as something systemic. This means that for a city or a set reach the Thermal Comfortability desired by its inhabitants, it should have been planned according to the urban variables that interact with the natural environment efficiently. Observing some old housing complexes in Elqui Valley, Chile, and the relationships between their natural and urban variables, some features lead to think that the environmental planning in these led to achieve a set with bioclimatic features. First, the evidences about the existence of an urban pattern in those old housing complexes, make thinking that the pattern would be a planned urban pattern, which generates interest in its study. In Chile, there have been few studies about Thermal Comfort, oriented to isolated buildings and indoor thermal comfort, but Bioclimatic Urban Patterns haven't been studied at all. In this sense, this investigation acquires a real importance and pretends to establish the relationship between urban variables and natural resources of the place that generates a good thermal comfort for its habitants. At the same time, the existence of a Bioclimatic Urban Pattern in Algarrobito, located in Elqui Valley basin, Chile, is analized. It is in this sense that the main purpose of this work is to determine the real existence of a Bioclimatic Urban Pattern, that links the urban and constructive form of the old villages of it with its microclimate. The methodology used is based on performing first the study of the microclimate of the place through the Bioclimatic Cards. To do this, weather stations, located in Elqui valley, near the place that was studied, were used to obtain information of climatological data. The different bioclimatic zones to the old town and potential areas of study in the set were identified, through an exhaustive review of the architectural information, a field reconnaissance work performed on the selected town and the application of the Local Climograph. This activity included a preliminary study of the local solar energy, the winds, the moisture, the temperatures, and their interaction with the set, allowing a first aproximation to troubles of outer space and housing. This allowed, based on the conditions of the place, vernacular architecture and materials, discovering an urban pattern in the old set, which allowed to give thermal comfort to its inhabitants and realize that the new set of the place did not follow this pattern, with the dysfunctions that it carried. These points demonstrated, in first place, the existence of a Bioclimatic Urban Pattern, the benefits of it, the importance of it as a cause of Thermal Comfortability, and therefore a better efficiency of energy, also that the new set doesn’t follow this Pattern at all, but that the posibility of rectification exists and, of course, that the new residencial development in Elqui Valley can be planned based on bioclimatic pattern discovered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El territorio de la República Dominicana comprende la parte oriental (74%) de la isla La Española o de Santo Domingo, situada en el Mar Caribe. Esta zona, debido a que tiene un clima más suave, se ha visto afectada desde hace muchos años por oleadas de inmigración procedente de Haiti. Los trabajadores solían desempeñar trabajos de campo, asentándose en pequeños poblados aislados de las grandes ciudades. Debido a su lejanía, y a su condición Haitiana, estos poblados o Bateys han venido sufriendo carencias en materia de habitabilidad básica. Con este proyecto se busca mejorar su calidad de vida, ayudando a disminuir las enfermedades que producen los sistemas de saneamiento deficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La acumulación material es uno de los signos más identificables de la pobreza. El pobre vive apegado a la tierra, esa es su única posesión y a partir de ella construirá sus refugios, sus habitaciones, sus utensilios. Las construcciones de arcilla, de barro, moldeadas con gran abundancia de materia se encuentran en los poblados primitivos, pero cualquier situación marcada por la extrema pobreza lo estará también por las acumulaciones de material. Resulta inimaginable una situación de pobreza que no implique la acumulación de materia y esto es particularmente evidente en las sociedades desarrolladas, donde un mendigo es reconocible por su montaña de ropas, calzado o enseres de todo tipo. Resulta, sin embargo, significativo que en los discursos de los ideólogos de la modernidad, la identificación de ésta con el advenimiento de una sociedad sin clases venga acompañada de una apelación a la pobreza, una nueva pobreza fría y sobria, propia de una habitación humana abierta y transparente, casi desnuda, e igualitaria para todos los hombres sin distinción de clases sociales. Así, la pobreza moderna estaría ligada al material, a los nuevos materiales, pero no es una condición impuesta, sino elegida, o al menos aceptada como inevitable por el nuevo hombre. La convivencia entre una pobreza de la acumulación material y una pobreza de ascetismo y renuncia es un hecho tanto en los discursos como en las obras de las vanguardias del siglo XX. La acumulación de materia informe y trabajada manualmente tiene lugar al mismo tiempo que la exhibición de la desnudez y la frialdad de los materiales producidos por la industria. Y en ambos casos, se apela a la pobreza como última referencia para las obras que tratan de ser una expresión fiel de las aspiraciones de su época.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo seguido en este proyecto fin de carrera, ha sido el análisis de la evolución general de la tecnología, tanto electrónica, como en Telecomunicaciones e Informática, desde sus inicios hasta la actualidad, realizando un estudio sobre cómo esos avances han mejorado, incluso cambiado nuestra vida cotidiana y cómo a consecuencia de la conversión de muchos de estos productos tecnológicos en objeto de consumo masivo, la propia dinámica económico-comercial ha llevado a las empresas a la programación del fin del su vida útil con el objeto de incrementar su demanda y, consiguientemente, la producción. Se trata de lo que se conoce desde hace décadas como Obsolescencia Programada. Para realizar este documento se ha realizado un breve repaso por los acontecimientos históricos que promovieron el inicio de esta práctica, así como también nos ha llevado a realizar mención de todos esos aparatos tecnológicos que han sufrido una mayor evolución y por tanto son los más propensos a que se instauren en ellos, debido a cómo influyen dichos cambios en los consumidores. Otro de los aspectos más importantes que rodean a la Obsolescencia Programada, es cómo influye en el comportamiento de la sociedad, creando en ella actitudes consumistas, que precisamente son las que alimentan que el ciclo económico siga basándose en incluir esta práctica desde el diseño del producto, puesto que a mayor consumo, mayor producción, y por tanto, supone un aumento de beneficios para el fabricante. Aunque, lo que para algunos supone un amplio margen de rentabilidad, existen otros componentes de la ecuación que no salen tan bien parados, como pueden ser los países del tercer mundo que están siendo poblados de basura electrónica, y en general el medio ambiente y los recursos de los que hoy disponemos, que no son ilimitados, y que están viéndose gravemente afectados por la inserción de esta práctica. Como cierre de este análisis, se repasarán algunas de las técnicas empleadas en algunos de los productos más utilizados hoy en día y las conclusiones a las que se han llevado después de analizar todos estos puntos del tema. ABSTRACT. The main goal followed in this final project has been analyzing the overall evolution of technology, both electronics and telecommunications. Also, computer science; from beginning to present it has been realized some studies about these advances have improved our daily life, even changing our routine, and turn us massive consumers of all technological products on the market. This dynamic economic and commercial has led companies to programming the end of its useful life in order to increase demand, and consequently, the production. This is known as Obsolescence. To make this document has been made a brief review through historical events that promoted the opening of this practice, and also led us to make mention all these technological devices have undergone further evolution and therefore more likely to establish them, because these changes affect consumers. Another important aspect around planned obsolescence is how to influence in society’s behavior, creating consumerist attitudes, which are precisely those feed the economic cycle continues to be based on including this practice from product design, because increased consumption and production. Therefore, this fact increases profits for the manufacturer. Although, for some people suppose a wide margin of profitability, there are other components do not have such luck; for example, third World countries have been filled with e-waste and the environment, in general, and resources available today which are not unlimited, and who are seriously affected by the inclusion of this practice. To close this analysis, we will review a few techniques used in some products most widely used today, and the conclusions that have been made after analyzing all these points of the topic.