1000 resultados para LOGÍSTICA EN LOS NEGOCIOS- ESTUDIO DE CASOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudio en colaboración con el grupo de trabajo de ecología del paisaje del CIFOR-INIA enmarcado en el proyecto "El sistema agroforestal dehesa como sumidero de carbono: hacia un modelo conjunto de la vegetación y el suelo". Mediante el inventario con marcelas multiescalares, se relaciona la riqueza y abundancia de especies de plantas vasculares a las distintas tipologías o usos del suelo proporcionadas por el MFE50, entre otros objetivos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En regiones semiáridas, con veranos cálidos, evapotranspiraciones elevadas, humedades relativas bajas, además de precipitaciones intermitentes y escasas (400 mm al año) que reducen la recarga del perfil en invierno, se puede ver afectada la productividad y sostenibilidad de los viñedos. Por eso en estas zonas puede ser necesario utilizar el riego suplementario para mantener la calidad y aumentar la productividad. En este marco de circunstancias es en el que se desarrolla la mayoría de la viticultura española, y en concreto en la zona centro donde se realizó el estudio. Con este trabajo se pretende estudiar la influencia del agua del riego, con distintas dosis y aplicada en diferentes fases de crecimiento y maduración de la baya, en la producción y calidad de la uva. Se estudió la influencia del déficit moderado continuo aplicado antes y después de envero, en el aprovechamiento de los recursos ambientales y en la respuesta del cv. Cabernet Sauvignon. El ensayo se desarrolló en 2010 y 2011 en la finca “La Alcoholera”, perteneciente a bodegas LICINIA S.L., ubicada en la localidad de Chinchón, Comunidad de Madrid, España. Durante 2010 y 2011 se realizaron estudios en cepas del cv. Cabernet Sauvignon (clon 15), injertadas sobre 41B y plantadas en 2005. Con poda corta en Cordón Royat unilateral de 80 cm de altura, y cuya vegetación alcanzó una altura de 97 cm. Las cepas del ensayo fueron conducidas verticalmente en espaldera (VSP), con 10 yemas por metro lineal. Las plantas dentro de la fila fueron separadas 1 m y la distancia de la calle fue de 3 m. La orientación de las filas norte – sur. Se plantearon cuatro tratamientos experimentales con diferentes dosis y momento de aplicación del riego. - T: Testigo. Déficit ligero, con un aporte continuado de agua desde floración (420 mm). - DMc: Déficit moderado continuo. Manejo del riego convencional, empezando en pre-envero (154 mm) - DM1: Déficit moderado a partir de pre-envero. Aporte de riego continuado desde floración reduciéndose la dosis de riego en pre-envero (312 mm). - DM2: Déficit moderado hasta pre-envero. Se empezó a regar a partir de preenvero (230 mm). Se observó que bajo condiciones de estrés hídrico leve, el crecimiento se reduce disminuyendo la migración de fotoasimilados hacia los órganos vegetativos. Generando menor área foliar en las plantas sometidas a déficit hídrico moderado entre floración y cuajado. Disminuyendo su consumo. En maduración la humedad del suelo dependió principalmente del riego aplicado y del consumo de la planta; dicho consumo dependió a la vez del desarrollo foliar del canopy y de la necesidad hídrica de la vid. El aumento del déficit hídrico disminuyó el contenido de agua en el suelo, lo que provocó diferencias en el estado hídrico y en el intercambio gaseoso de las hojas. En condiciones de déficit moderado, la fotosíntesis se encontró altamente correlacionada con el potencial hídrico foliar medido a mediodía solar. Además en condiciones de déficit moderado continuo la disponibilidad hídrica, la demanda atmosférica y el nivel de hidratación de las hojas, interaccionaron de forma compleja en la regulación estomática de las hojas, condicionando el intercambio gaseoso y la eficiencia en el uso del agua. Al aumentar el volumen de agua aplicado el peso de madera de poda por metro de fila fue superior. Las diferencias encontradas en el rendimiento fueron debidas a las diferencias en el peso de baya. El cual estuvo condicionado por la estrategia de riego, ya que, el déficit hídrico moderado antes de envero fue más crítico para el rendimiento que el déficit impuesto durante la madurez. Por otro lado, la biomasa dependió de la actividad fisiológica de la planta, la cual fue altamente dependiente de la disponibilidad hídrica. Déficit hídrico moderado aplicado de cuajado a envero, generó bayas más pequeñas y aumentó la relación hollejo:pulpa. El déficit moderado aplicado después de envero favoreció la acumulación de IPT y antocianos extraíbles, mejorando la calidad de la uva, pero disminuyó la acidez de la baya. El riego aplicado de envero a vendimia desaceleró la concentración de azúcares en bayas que fueron sometidas a déficit antes de pre-envero. ABSTRACT Mediterranean climate is characterized by hot summers, high evapotranspiration rates, and scarce precipitations (400 mm per year) during grapevine cycle. These extremely dry conditions affect vineyard productivity and sustainability. Supplementary irrigation is needed practice in order to maintain yield and quality. Almost all Spanish grape growing regions are characterized by these conditions, especially in the center region, where this trial was performed. The main objective of this work is to study the influence of water irrigation on yield and quality. For this aim, different levels of irrigation (mm of water applied) were applied during different stages of growth and berry maturity of Caberent Sauvignon grapevines. The work was conducted from 2010 to 2011 and located in Licinia (40º 12´ N, 3º 28´ W), Madrid, Spain. The cultivar utilized was Cabernet Sauvignon, clone 15 grafted onto rootstock 41B, planted in 2005. The vineyard was oriented north-south, with spacing on 3 meters between rows and 1 meter between plants. Vines were spurpruned to 10 buds per meter and trained in unilateral cordon with a height of 80 cm. Shoots were positioned vertically (VSP). Considering the amount of water and the moment of the application, four experimental treatments were applied: - T: Control sample. Slight deficit (420 mm) applied from bloom to maturity. - DMc: Continuous moderate deficit. Traditional irrigation: application of 154 mm of water from pre-veraison to maturity. - DM1: Deficit moderate from pre-veraison. Irrigation of 312 mm of water from bloom to pre-veraison. - DM2: Deficit moderate to pre-veraison. Irrigation of 230 mm of water from preveraison to maturity Under moderated water stress conditions it was seen than leaf growth decreases due to the reduction of migration of photo-assimilates to vegetative organs. Vines with moderate water deficit between flowering and ripening develop less leaf area and decrease its water consumption. During maturation of berries, soil moisture depends on irrigation and plant consumption. This consumption further depends on vegetation development and on the vine needs for water. By increasing water deficit, the water content in the soil decreases. This causes differences in leaf water status and in the gases exchange. Under moderate deficit conditions, photosynthesis was found highly correlated with midday leaf water potential. Further, atmospheric demand and the level of leaves hydration interact in complex ways in the stomatal regulation, which affects leaf gas exchange and the efficiency of water use. The amount of water applied is directly proportional to pruning weight. Changes in berry weight cause differences in yield ratios. The differences in berry weights are conditioned by the irrigation strategy, the moderate water deficit before veraison influences more than the deficit applied from veraison. Biomass generated for the plant depends on its physiological activity, which is highly related to the water availability. Moderate water deficit applied from fruit set to ripening generates smaller berries, increasing the pulp/skin ratio. Moderate deficit applied after veraison promotes the accumulation of extractables anthocyans and TPI. Despite this treatment improves color parameters of the grapes, it decreases its total acidity. Irrigation applied from veraison to harvest slows down sugar accumulation in berries compared to those under deficit before veraison conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta comunicación se muestran los resultados experimentales del índice de reducción acústica, R, de las ventanas con y sin sistemas de ventilación natural permanente en función de la frecuencia y se calculan los niveles de inmisión acústica en recintos habitables con diferentes composiciones de fachadas y distintos niveles de ruido exterior.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Universities are offering more and more courses and programmes in an additional language. At HEPCLIL, therefore, we would like to debate the methodological im - plications of these changes, giving voice to practical classroom experiences and initiatives. We would also like to act as a platform for cutting-edge research on CLIL in higher education. What impact does teaching in an additional language have on content or language learning? What are the effects on teachers and stu - dents in higher education?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El interés de las administraciones públicas por promover el deporte escolar, suele justificarse por los beneficios educativos y saludables que los escolares obtendrían de las prácticas físico-deportivas. Mas allá de concepciones neutrales o excesivamente idealizadas sobre su valor educativo, las condiciones socioculturales que lo configuran y las intervenciones pedagógicas en el terreno marcan la orientación de la educación en valores propuesta en los programas de deporte escolar. El objeto de estudio de esta tesis doctoral es comprender la educación en valores desde el punto de vista de la estructura organizativa y de los actores implicados en dos programas de deporte escolar seleccionados de países diferentes: la “Union Nationale du Sport Scolaire” (UNSS) en Francia y los “Campeonatos Escolares en los IES de la Comunidad de Madrid” (CEIESCM) en España. El diseño metodológico es un estudio comparado internacional y de corte cualitativo, donde se han analizado 66 entrevistas semiestructuradas, 28 observaciones directas, 45 documentos y el cuaderno etnográfico del investigador por medio de análisis de contenido temático apoyado con el programa NVivo 10. Los resultados aportan dos concepciones distintas de deporte escolar con repercusión en la educación en valores: la UNSS complementa valores del sistema educativo y deportivo proporcionando cauces de implicación y compromiso del alumnado en el arbitraje y la organización asociativa, mientras que en CEIESCM, eximiéndoles de esas responsabilidades, se prioriza la máxima práctica de actividad físico-deportiva reforzando o sancionando durante la misma las conductas que vayan a promover valores del juego limpio propios del deporte. La explicación de estos resultados, contextualizados en sus países respectivos, permite proyectar un eventual deporte escolar europeo basado en valores ciudadanos y democráticos que recogería la perspectiva moral, jurídica y política propuesta a partir del estudio. RÉSUMÉ L’intérêt des administrations publiques pour promouvoir le sport scolaire est souvent justifié par les bénéfices éducatifs et ceux liés à la santé que les élèves obtiendraient des pratiques physiques et sportives. Au-dedes conceptions neutres et excessivement idéalistes sur sa valeur éducative, les conditions socio-culturelles qui le configurent et les interventions pédagogiques sur le terrain marquent l’orientation de l’éducation des valeurs proposée par les programmes de sport scolaire. L’objet de cette étude est de comprendre l’éducation des valeurs du point de vue de la structure organisationnelle et des acteurs impliqués dans deux programmes de sport scolaire sélectionnés de différents pays: l’« Union Nationale du Sport Scolaire » (UNSS) en France et les « Campeonatos Escolares de los IES de la Comunidad de Madrid » (CEIESCM) en Espagne. L’approche méthodologique est une étude comparée internationale et qualitative, où l’on a analysé 66 entretiens semi-directifs, 28 observations directes, 45 documents et le carnet ethnographique du chercheur par le biais d’une analyse de contenu thématique à l’aide du programme NVivo 10. Les résultats apportent deux conceptions différentes du sport scolaire qui ont des répercussions dans l’éducation des valeurs: l’UNSS regroupe les valeurs du système éducatif et sportif en proposant aux élèves des espaces d’implication et d’engagement avec l’arbitrage et l’organisation associative, alors que les CEISCM, les exemptent de ces responsabilités et donnent la priorité au maximum d’activité physique et sportive pratiquée où l’on renforce ou sanctionne pendant son déroulement les conduites qui encourageront les valeurs de fair-play liées au sport. L’explication des résultats, contextualisée dans leurs pays respectifs, permet de projeter un éventuel sport scolaire européen basé sur des valeurs citoyennes et démocratiques qui recueillerait la perspective morale, juridique et politique proposée suite à cette étude. ABSTRACT The interest of public institutions for promoting school sports is often justified by the educational and healthy benefits that the students obtained through physical activity and sports practice. Beyond neutral or overly idealised conceptions about the educational value of sport, sociocultural conditions and pedagogical interventions shape the orientation of education in values given in school sports programs. The aim of this thesis is to understand the values education from the perspectives of the organizational structure and actors involved in two school sports programs selected from different countries: the "Union Nationale du Sport Scolaire" (UNSS) in France and the "School Championships in the IES of the Community of Madrid" (CEIESCM) in Spain. The methodology is a comparative international and qualitative study, with 66 semistructured interviews, 28 direct observations, 45 documentary resources and the ethnographic research notebook being analysed through thematic content analysis using the program NVivo 10. The results provide two different conceptions of school sport that impact on values education: on the one hand, the UNSS complements values of the educational and sports system providing channels of participation and promoting the involvement of students in refereeing and associative organization; on the other hand, CEIESCM is does not assume these responsibilities and the maximum sportive practice is prioritized reinforcing or punishing behaviours that promote sport fair play. The explanation of these results, contextualized in their respective countries, can project an eventual European school sport based on citizens and democratic values and reflect moral, legal and political perspective proposed in this study.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El nivel de las emisiones radioeléctricas de los sistemas de comunicaciones está sometido a estrictos controles para asegurar que no puedan suponer un riesgo para la salud de la población. En España, es el estado quien tiene la potestad sobre la gestión, planificación, administración y control del dominio público radioeléctrico. Los valores máximos de exposició radioeléctrica fijados en España coinciden con los utilizados en la mayor parte de los países miembros de la Unión Europea y son considerados internacionalmente seguros. No obstante, un municipio de España está considerando fijar unos niveles máximos de exposición que son entre 4.000–10.000 veces inferiores a los que están actualmente vigentes en todo el territorio español. Dicha limitación tan radical implicaría reducir mucho la potencia transmitida por las estaciones base, lo cual afectaría gravemente a la operatividad del sistema de comunicaciones móviles de dicho municipio. Este trabajo ha tenido como objetivo la realización de un estudio para comprobar cuantitativamente, en qué medida afecta esta reducción de potencia a los servicios de: voz, datos, banda ancha móvil y servicio de emergencias 112 que se ofrecen actualmente en dicho municipio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Antonio Palacios, relevante arquitecto de principios del s.XX, responsable de emblemáticos edificios del centro de la capital (Círculo de Bellas Artes, Palacio de Correos...), es también autor de otro tipo de arquitectura mucho menos conocida. En colaboración con el ingeniero Carlos Mendoza diseñó varios ejemplos de carácter industrial, como la Central Hidroeléctrica de Mengíbar (1914-1916, Jaén), y el Metro de Madrid. En 1917 es nombrado arquitecto oficial de la Compañía del Ferrocarril Metropolitano Alfonso XIII (de la que Mendoza también era socio). Ostenta este cargo hasta su fallecimiento en 1945. A lo largo de estos casi treinta años consigue modelar una imagen corporativa que se extiende desde las estaciones, bocas y templetes hasta los edificios auxiliares. Analizaremos el estado en que se encuentra actualmente este patrimonio industrial, distinguiendo entre los casos que han sido restaurados (Nave de Motores de Pacífico, estación de Chamberí), los que están en desuso (subestación de Quevedo, cocheras de Cuatro Caminos) y los que han desaparecido (templetes de Sol y Gran Vía), y compararemos estos ejemplos con otros edificios industriales de Palacios, como las Centrales Hidroeléctricas de Mengíbar y del Tambre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se pretende estudiar los quioscos de música en un espacio, (Comunidad de Madrid), y en un tiempo, (desde 1897 año del más antiguo localizado en la Comunidad de Madrid, hasta 2005 por cambio de ciclo político y crisis económica, constando que la actividad constructiva, modificadora y destructiva de los quioscos de música sigue), difundiendo el estudio de los localizados, para que se valoren como objetos arquitectónicos, (de poco tamaño, pero situados y vistos en los lugares más representativos de las localidades. En la metodología de investigación seguida, se usan la inferencia inductiva y deductiva. Se establecen 3 fases en el proceso de investigación por el método inductivo-deductivo: Primera fase. En esta fase se establece la idea del tema de investigación, con el planteamiento del problema, realizándose la pregunta a la que se pretende responder. En este caso la pregunta es: ¿que tipología e invariantes definen a los quioscos de música, como objetos arquitectónicos dentro de los espacios públicos? Se definen luego los objetivos, con la identificación de un objetivo principal como son su tipología e invariantes, y en su caso otros objetivos específicos, como son sus usos y la creación de un modelo. Para ello se utiliza un marco teórico, relativo a los conocimientos que hay sobre la materia, y desde el que se produce la aproximación al problema, y se establece la metodología de trabajo. . Segunda fase, desarrollada en dos etapas: Primera etapa: Se realiza la elección del tipo de trabajo a realizar, es decir, como vamos a conocer la respuesta a la pregunta con un planteamiento cuantitativo, donde se trabaja con objetivos cerrados, y donde se sabe lo que se quiere investigar. En este caso son los objetivos específicos los que completan y marcan el tipo de trabajo. Lo primero que se realiza es un análisis histórico general de los objetos arquitectónicos que sirven de base a las futuras y actuales creaciones de quioscos de música. A continuación se realiza una búsqueda y trabajo de campo, en bibliotecas, páginas web, etc. con obtención de datos “in situ” sobre los quioscos de música, y una relación y descripción de los objetos a estudiar, limitados a la Comunidad de Madrid, desde finales del siglo XIX a principios del XXI, por su suficiente cantidad y representatividad, en relación al conjunto de los quioscos de música del conjunto de las comunidades de España. Segunda etapa: Se realiza el análisis e interpretación de los datos obtenidos, dando respuesta a la pregunta que se había realizado. En ella se vincula el marco teórico con los objetivos, se responde al objetivo principal como son la tipología e invariantes en relación a su composición arquitectónica, a sus elementos formales, a sus sistemas constructivos, a sus materiales, y a alguno de los objetivos específicos, como los usos de los quioscos de música, el diseño de un modelo y la creación de una base de datos de quioscos de música. Tercera fase: Se establecen las conclusiones de todo el trabajo de investigación realizado, y se responde a la posible definición de un modelo según lo planteado en la investigación. Se realiza la difusión/publicación de los conocimientos adquiridos, dando cuenta con rigor de como se ha desarrollado la investigación, ya que es la sociedad la principal receptora de los conocimientos adquiridos en la investigación, y dando la mayor amplitud de información posible, con los anexos y la bibliografía utilizada. En el planteamiento de este trabajo de investigación, hay que partir de la consideración de que los quioscos de música forman parte de los objetos arquitectónicos reconocidos popularmente, como propios de los individuos y de los colectivos que forman las sociedades, ya que forman o han formado parte de las vidas de generaciones de usuarios de los espacios públicos, con una imagen reconocible y que es parte de lo que identifica a cada localidad en la que existe. La situación actual de falta de datos, conocimiento e información sobre los quioscos de música, ha creado la necesidad de realizar un trabajo de investigación, con el objetivo de aportar lo que ahora falta, y crear las bases de futuros trabajos, profundizando en los conocimientos sobre esta materia y/o generando conocimiento en lo relacionado con ella. Uno de los condicionantes es que a pesar del gran número de ellos existente, no hay estudios ni bibliografía adecuada para realizar trabajos relacionados con su construcción, época, estilos, materiales, diseños, tipología etc. excepto en algunas monografías sobre los más representativos de comunidades, ciudades o pueblos concretos, pero que no representan el conjunto de ideales, motivos, épocas diferentes en que se crearon, y con que criterios estilísticos, sociales, de uso etc. se programaron por las distintas administraciones responsables de su construcción. Esta falta de información se suple normalmente con datos que aportan las personas que tienen alguna relación con los quioscos, como los conservadores, jardineros, vecinos, personas mayores, etc., y en algunos casos a través de búsqueda de información en páginas Web, pero con poco rigor y de poca fiabilidad. Se impone por tanto desarrollar una investigación que aporte información sobre la arquitectura de estos objetos, de bibliografía inexistente o insuficiente, consiguiendo que se incorporen en la tipología arquitectónica, adquiriendo la importancia y reconocimiento que se merecen, no solo arquitectónicamente, sino incluso a nivel social, porque en casi todos los casos se añade un componente de hito, de elemento reconocible y nostálgico, con una gran importancia simbólica en las sociedades a lo largo de la historia, dentro de los espacios donde cada uno se ha desarrollado. Para ello se desarrollan a continuación los objetivos tanto generales como específicos, el marco teórico con los conceptos, origen, evolución, estado del arte o estado de la cuestión en el momento actual de los quioscos de música, y la metodología a seguir, con una primera etapa de uso del método inductivo, donde se relacionan y describen los quioscos de música localizados en la Comunidad de Madrid, y una segunda etapa, donde se realiza el análisis y estudio de tipología, invariantes, usos y una propuesta de diseño de un modelo de quiosco de música atendiendo a los resultados de los trabajos realizados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La hipótesis que inspiró esta tesis sostiene que la integración de componentes fotovoltaicos en los cerramientos opacos y sombreamientos de huecos acristalados de edificios de oficinas en sitios ubicados en bajas latitudes, tomando como el ejemplo el caso concreto de Brasil, podría incrementar su eficiencia energética. Esta posibilidad se basa en el bloqueo de una parte significativa de la irradiación solar incidente en estos edificios, reduciendo así las cargas térmicas para la climatización y a la vez transformándola en energía eléctrica, a tal punto que se amortizan los costes de inversión en plazos aceptables a través de los ahorros en la demanda de energía. Para verificar esta hipótesis de partida se ha propuesto como objetivo general analizar la integración de elementos fotovoltaicos en cubiertas, muros opacos y sombreamiento de huecos acristalados desde la óptica del balance energético térmico y eléctrico. Inicialmente se presenta y analiza el estado del arte en los temas estudiados y la metodología de investigación, de carácter teórico basada en cálculos y simulaciones. A partir de un modelo tipo de edificio de oficinas situado en Brasil, se definen cuatro casos de estudio y una serie de parámetros, los cuales se analizan para siete latitudes ubicadas entre -1,4° y -30°, separadas las unas de las otras por aproximadamente 5°. Se presentan y discuten los resultados de más de 500 simulaciones para los siguientes conceptos: - recurso solar, desde la perspectiva de la disponibilidad de irradiación solar en distintas superficies de captación apropiadas para la integración de sistemas solares fotovoltaicos en edificaciones en bajas latitudes; - análisis de sombras, con objetivo de identificar los ángulos de sombras vertical (AVS) para protección de huecos acristalados en edificios de oficinas; - balance energético térmico, para identificar el efecto térmico del apantallamiento provocado por componentes fotovoltaicos en cubiertas, muros opacos y parasoles en ventanas en las cargas de refrigeración y consecuentemente en las demandas de energía eléctrica; - balance energético eléctrico, contrastando los resultados del balance térmico con la energía potencialmente generada en las envolventes arquitectónicas bajo estudio; - análisis económico, basado en un escenario de precios de la tecnología fotovoltaica de un mercado maduro y en la política de inyección a la red marcada por la actual normativa brasileña. Se han verificado los potenciales de ahorro económico que los sistemas activos fotovoltaicos podrían aportar, y asimismo se calculan diversos indicadores de rentabilidad financiera. En suma, esta investigación ha permitido extraer conclusiones que contribuyen al avance de la investigación y entender las condiciones que propician la viabilidad de la aplicación de componentes fotovoltaicas en las envolventes de edificios en Brasil, y hasta un cierto punto en otros países en latitudes equivalentes. ABSTRACT The hypothesis that inspired this thesis sustains that integration of photovoltaic components in the opaque envelope and shading elements of office buildings placed at low-latitude countries, using the specific case of Brazil, could increase its energy efficiency. This is possible because those components block a significant part of the incident solar irradiation, reducing its heating effect on the building and transforming its energy into electricity in such a way that the extra investments needed can be paid back in acceptable periods given the electricity bill savings they produce. In order to check this hypothesis, the main goal was to analyze the thermal and electrical performance of photovoltaic components integrated into roofs, opaque façades and window shadings. The first step is an introduction and discussion of the state of the art in the studied subjects, as well as the chosen methodology (which is theoretical), based on calculations and simulations. Starting from an office building located in Brazil, four case studies and their parameters are defined, and then analyzed, for seven cities located between latitudes -1.4° and -30°, with an approximate distance of 5° separating each one. Results of more than 500 simulations are presented and discussed for the following concepts: - Solar resource, from the perspective of irradiation availability on different surfaces for the integration of photovoltaic systems in buildings located at low latitudes; - Shading analysis, in order to determine the vertical shading angles (VSA) for protection of the glazed surfaces on office buildings; - Thermal energy balance, to identify the screening effect caused by photovoltaic components on roofs, opaque façades and window shadings on the cooling loads, and hence electricity demands; - Electric energy balance, comparing thermal energy balance with the energy potentially generated using the active skin of the buildings; - Economic analysis, based on a mature-market scenario and the current net metering rules established by the Brazilian government, to identify the potential savings these photovoltaic systems could deliver, as well as several indicators related to the return on the investment. In short, this research has led to conclusions that contribute to the further development of knowledge in this area and understanding of the conditions that favor the application of photovoltaic components in the envelope of office buildings in Brazil and, to a certain extent, in other countries at similar latitudes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas tres décadas, las dinámicas de restructuración económica a nivel global han redefinido radicalmente el papel de las ciudades. La transición del keynesianismo al neoliberalismo ha provocado un cambio en las políticas urbanas de los gobiernos municipales, que han abandonado progresivamente las tareas de regulación y redistribución para centrarse en la promoción del crecimiento económico y la competitividad. En este contexto, muchas voces críticas han señalado que la regeneración urbana se ha convertido en un vehículo de extracción de valor de la ciudad y está provocando la expulsión de los ciudadanos más vulnerables. Sin embargo, la regeneración de áreas consolidadas supone también una oportunidad de mejora de las condiciones de vida de la población residente, y es una política necesaria para controlar la expansión de la ciudad y reducir las necesidades de desplazamiento, promoviendo así ciudades más sostenibles. Partiendo de la hipótesis de que la gobernanza de los procesos de regeneración urbana es clave en el resultado final de las operaciones y determina el modelo de ciudad resultante, el objetivo de esta investigación es verificar si la regeneración urbana es necesariamente un mecanismo de extracción de valor o si puede mejorar la calidad de vida en las ciudades a través de la participación de los ciudadanos. Para ello, propone un marco de análisis del proceso de toma de decisiones en los planes de regeneración urbana y su impacto en los resultados de los planes, tomando como caso de estudio la ciudad de Boston, que desde los años 1990 trata de convertirse en una “ciudad de los barrios”, fomentando la participación ciudadana al tiempo que se posiciona en la escena económica global. El análisis se centra en dos operaciones de regeneración iniciadas a finales de los años 1990. Por un lado, el caso de Jackson Square nos permite comprender el papel de la sociedad civil y el tercer sector en la regeneración de los barrios más desfavorecidos, en un claro ejemplo de urbanismo “desde abajo” (bottom-up planning). Por otro, la reconversión del frente marítimo de South Boston para la construcción del Distrito de Innovación nos acerca a las grandes operaciones de regeneración urbana con fines de estímulo económico, tradicionalmente vinculadas a los centros financieros (downtown) y dirigidas por las élites gubernamentales y económicas (la growth machine) a través de procesos más tecnocráticos (top-down planning). La metodología utilizada consiste en el análisis cualitativo de los procesos de toma de decisiones y la relación entre los agentes implicados, así como de la evaluación de la implementación de dichas decisiones y su influencia en el modelo urbano resultante. El análisis de los casos permite afirmar que la gobernanza de los procesos de regeneración urbana influye decisivamente en el resultado final de las intervenciones; sin embargo, la participación de la comunidad local en la toma de decisiones no es suficiente para que el resultado de la regeneración urbana contrarreste los efectos de la neoliberalización, especialmente si se limita a la fase de planeamiento y no se extiende a la fase de ejecución, y si no está apoyada por una movilización política de mayor alcance que asegure una acción pública redistributiva. Asimismo, puede afirmarse que los procesos de regeneración urbana suponen una redefinición del modelo de ciudad, dado que la elección de los espacios de intervención tiene consecuencias sobre el equilibrio territorial de la ciudad. Los resultados de esta investigación tienen implicaciones para la disciplina del planeamiento urbano. Por una parte, se confirma la vigencia del paradigma del “urbanismo negociado”, si bien bajo discursos de liderazgo público y sin apelación al protagonismo del sector privado. Por otra parte, la planificación colaborativa en un contexto de “responsabilización” de las organizaciones comunitarias puede desactivar la potencia política de la participación ciudadana y servir como “amortiguador” hacia el gobierno local. Asimismo, la sustitución del planeamiento general como instrumento de definición de la ciudad futura por una planificación oportunista basada en la actuación en áreas estratégicas que tiren del resto de la ciudad, no permite definir un modelo coherente y consensuado de la ciudad que se desea colectivamente, ni permite utilizar el planeamiento como mecanismo de redistribución. ABSTRACT In the past three decades, the dynamics of global economic restructuring have radically redefined the role of cities. The transition from keynesianism to neoliberalism has caused a shift in local governments’ urban policies, which have progressively abandoned the tasks of regulation and redistribution to focus on promoting economic growth and competitiveness. In this context, many critics have pointed out that urban regeneration has become a vehicle for extracting value from the city and is causing the expulsion of the most vulnerable citizens. However, regeneration of consolidated areas is also an opportunity to improve the living conditions of the resident population, and is a necessary policy to control the expansion of the city and reduce the need for transportation, thus promoting more sustainable cities. Assuming that the governance of urban regeneration processes is key to the final outcome of the plans and determines the resulting city model, the goal of this research is to verify whether urban regeneration is necessarily a value extraction mechanism or if it can improve the quality of life in cities through citizens’ participation. It proposes a framework for analysis of decision-making in urban regeneration processes and their impact on the results of the plans, taking as a case study the city of Boston, which since the 1990s is trying to become a "city of neighborhoods", encouraging citizen participation, while seeking to position itself in the global economic scene. The analysis focuses on two redevelopment plans initiated in the late 1990s. The Jackson Square case allows us to understand the role of civil society and the third sector in the regeneration of disadvantaged neighborhoods, in a clear example of bottom-up planning. On the contrary, the conversion of the South Boston waterfront to build the Innovation District takes us to the big redevelopment efforts with economic stimulus’ goals, traditionally linked to downtowns and led by government and economic elites (the local “growth machine”) through more technocratic processes (top-down planning). The research is based on a qualitative analysis of the processes of decision making and the relationship between those involved, as well as the evaluation of the implementation of those decisions and their influence on the resulting urban model. The analysis suggests that the governance of urban regeneration processes decisively influences the outcome of interventions; however, community engagement in the decision-making process is not enough for the result of the urban regeneration to counteract the effects of neoliberalization, especially if it is limited to the planning phase and does not extend to the implementation of the projects, and if it is not supported by a broader political mobilization to ensure a redistributive public action. Moreover, urban regeneration processes redefine the urban model, since the choice of intervention areas has important consequences for the territorial balance of the city. The results of this study have implications for the discipline of urban planning. On the one hand, it confirms the validity of the "negotiated planning" paradigm, albeit under public leadership discourse and without a direct appeal to the leadership role of the private sector. On the other hand, collaborative planning in a context of "responsibilization" of community based organizations can deactivate the political power of citizen participation and serve as a "buffer" towards the local government. Furthermore, the replacement of comprehensive planning, as a tool for defining the city's future, by an opportunistic planning based on intervention in strategic areas that are supposed to induce change in the rest of the city, does not allow a coherent and consensual urban model that is collectively desired, nor it allows to use planning as a redistribution mechanism.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los espacios de plataforma única de convivencia (EPUC) son espacios singulares, cuyo desarrollo en las últimas décadas se ha traducido en una diversidad de tipos indefinida y que ha propiciado no pocas dificultades en cuanto a su uso, derivadas muchas veces de la confusión en cuanto al propio concepto de convivencia y espacio compartido. En particular algunos colectivos han puesto sobre la mesa las carencias de accesibilidad de estos espacios que paradójicamente son considerados por muchos ciudadanos como más accesibles que las calles convencionales. Para el estudio de la mejora de la accesibilidad en estos espacios se plantean tres líneas de investigación: la pluralidad de usuarios y de utilización de la vía pública; la diversidad en la formalización de los diferentes espacios públicos con plataforma única de convivencia; y las carencias de accesibilidad existentes en estos espacios y posibilidades de mejora desde el diseño. Así en la primera parte de la investigación se aborda el análisis de la diversidad de usuarios y la diferente utilización de la calle que realizan los peatones en función de sus necesidades. Se analizan diferentes clasificaciones de usuarios de la vía pública y las diferentes necesidades existentes que tienen los peatones. Dichos análisis convergen en una propuesta de clasificación peatonal. En la segunda parte de la investigación se establece una red de indicadores específicos para analizar las diferentes características de los EPUC y su aplicación a 70 casos de estudio. En la tercera parte de la investigación se aúnan las conclusiones de las dos partes anteriores para analizar de forma concreta las necesidades específicas de accesibilidad existentes en los EPUC. ABSTRACT The single-platform spaces of coexistence (level surfaces or shared surfaces), or EPUC in its Spanish acronym, have become singular spaces whose development in recent decades has resulted in an undefined variety of types. This has led to many difficulties in their use, often also related to certain confusion about the concept of coexistence and shared spaces in itself. In particular some groups have raised concerns about the inadequate accessibility in these spaces, which, paradoxically, are considered by many citizens as more accessible than conventional streets. Three research areas are posed to study the improvement of accessibility for singleplatform spaces of coexistence (EPUC): the plurality of users and different uses of public roads, diversity in the formalization of the different public realm designed with level surfaces, and existing deficiencies in accessibility in these spaces and possibilities for improvement from a design point of view. Thus in the first part of the research, the focus is on the analysis of the diversity of users and the different ways in which pedestrians use the streets depending on their needs. Different classifications of users of public roads as well as the different current needs of pedestrians are analyzed. These analyses converge on a proposed classification of pedestrians. In the second part of the research, a set of indicators is proposed with the aim of analyzing the different characteristics of the EPUC and the application of these indicators on 70 case studies. Finally, the conclusions of the previous two parts come together to discuss in a concrete manner specific accessibility-related needs in the EPUC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las desviaciones de tiempo y coste constituyen un fenómeno muy frecuente en la industria de la construcción. Existe un gran número de proyectos que no se terminan en el plazo y el tiempo estipulados, y esto parece que se ha convertido más en la norma que en la excepción. Los proyectos de construcción son heterogéneos por naturaleza y pueden llegar a ser muy complejos, involucrando numerosos procesos y expuestos a infinidad de variables y factores que pueden afectar el cumplimiento de los objetivos de tiempo y coste. Las desviaciones de tiempo y coste no favorecen ni al promotor ni al resto de equipos participantes del proyecto, dando lugar además la mayoría de las veces a situaciones de conflictos y relaciones adversas entre participantes del proyecto. Es por todo ello que surge la necesidad de atender a una estrategia de gestión de riesgos eficaz, como herramienta esencial de la gestión de proyectos para contribuir al éxito de los mismos. Es preciso considerar también que los proyectos de construcción pueden presentar distintas características específicas según el tipo de proyecto de que se traten. El presente trabajo de investigación estudia concretamente los proyectos de edificios de uso hotelero, los cuales pueden presentar estructuras organizativas muy diversas, incluyendo numerosos agentes participantes y procesos que a su vez se desarrollan en un entorno que ya es muy dinámico por su propia naturaleza. En el sector hotelero el cumplimiento de los objetivos de tiempo y coste del proyecto son especialmente importantes ya que cualquier retraso en la fecha de apertura estimada del hotel se traducirá en pérdidas importantes de negocio y cuota de mercado y podrá llevar asociadas también repercusiones importantes en otros aspectos relacionados con la operativa hotelera. Si se conocen las causas que originan tales desviaciones de tiempo y coste, se podrán establecer las correspondientes medidas de actuación para anticiparnos a ellas y que no se produzcan, siendo ésta la base del propósito de esta tesis. Así, la identificación de riesgos supone el primer paso para una gestión de riesgos eficaz, fundamental para contribuir al éxito de un proyecto. El contexto de la investigación delimita como lugar geográfico de estudio España, donde el sector turístico constituye un motor importante de la economía y en el que la eficiencia y competitividad debe estar reflejada también en el proceso del proyecto edificatorio, minimizándose los retrasos y sobrecostes. El presente estudio investiga por tanto los factores de riesgo más críticos que dan lugar a desviaciones de tiempo y coste en proyectos de edificios de uso hotelero en España. A partir del análisis de la literatura existente se genera una propuesta de identificación de factores de riesgo, que se analiza mediante un análisis cualitativo basado en la opinión de expertos y estudio de casos específicos. De los resultados de este análisis se determinan los niveles críticos para cada factor de riesgo, se comparan además las percepciones de niveles de riesgo según distintos tipos de grupos profesionales, y se establece un procedimiento en cuanto a prioridad de acción de respuesta. Así, se desarrolla una propuesta final de identificación y matriz de factores de riesgo con el objetivo de que pueda servir de base a propietarios, empresas gestoras y otros participantes de proyectos hoteleros para diseñar un plan de gestión de riesgos eficaz, contribuyendo de este modo al éxito del proyecto en cuanto a cumplimiento de objetivos de tiempo y coste programados. ABSTRACT Cost and schedule overruns constitute a very frequent phenomenon in the construction industry. A large number of construction projects do not finish on the estimated time and cost, and this scenario seems to be becoming the norm rather than the exception. Construction projects are heterogeneous by nature and they can become very complex as they involve a large number of processes which are subject to many variables and factors that may give rise to time and cost overruns. Time and cost overruns cause dissatisfaction not only to owners but all stakeholders involved in the project, leading most of the times to undesirable situations of conflicts and adversarial relationships between project participants. Hence, it becomes necessary to adopt an effective risk management strategy as an essential part of project management in order to achieve project success. Construction projects may have different characteristics depending on the type of project. This research specifically focuses on hotel construction projects. Hotel projects usually involve complex organizational structures, including many project participants and processes which develop in an environment that is already dynamic by nature. In this type of projects, the achievement of time and cost objectives is particularly important, as any delay of the hotel opening date will result in significant loss of business and market share and may also involve key important implications related to hotel operations. If the risk factors that lead to time and cost overrun are known in advance, preventive actions could be established in order to avoid them, so that time and cost overruns are minimized. This constitutes the aim of this research, being risk identification the first step of any effective risk management strategy for project success. The context of this research is focused on a particular geographical area, being this Spain. Tourism in Spain is a major contributor to the Spanish economy, and efficiency and competiveness should also be reflected in the building processes of the hotel industry, where delays and cost overruns should be kept to the minimum. The aim of this study is to explore the most critical risk factors leading to time and cost overruns in hotel construction projects in Spain. From the analysis of the literature review, a proposal of a risk identification framework is developed, which will be further analyzed by a qualitative assessment based on expert opinions and the study of specific case studies. From the results of this assessment, the levels of risk criticality are determined for the identified factors, a comparison of the perceptions of risk levels among different groups of respondents is also carried out, and a procedure for prioritization of factors in terms of needs of response is established. A final proposal of a risk register matrix framework is then developed in order to assist hotel owners, project management companies or other hotel project stakeholders, and provide them with a base to design their own specific risk management plans, contributing in this way to project success with regards to the achievement of cost and time objectives.