7 resultados para Artesanías – Evaluación - Estadísticas

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El propósito de esta tesis doctoral es el desarrollo de un modelo integral de evaluación de la gestión para instituciones de educación superior (IES), fundamentado en valorar la gestión de diferentes subsistemas que la integran, así como estudiar el impacto en la planificación y gestión institucional. Este Modelo de Evaluación Institucional fue denominado Modelo Integral de Evaluación de Gestión de las IES (MIEGIES), que incorpora la gestión de la complejidad, los aspectos gerenciales, el compromiso o responsabilidad social, los recursos, además de los procesos propios universitarios con una visión integral de la gestión. Las bases conceptuales se establecen por una revisión del contexto mundial de la educación superior, pasando por un análisis sobre evaluación y calidad en entornos universitarios. La siguiente reflexión conceptual versó sobre la gestión de la complejidad, de la gestión gerencial, de la gestión de responsabilidad social universitaria, de la gestión de los recursos y de la gestión de los procesos, seguida por un aporte sobre modelaje y modelos. Para finalizar, se presenta un resumen teórico sobre el alcance de la aplicación de ecuaciones estructurales para la validación de modelos. El desarrollo del modelo conceptual, dimensiones e indicadores, fue efectuado aplicando los principios de la metodología de sistemas suaves SSM. Para ello, se identifica la definición raíz (DR), la razón sistémica de ser del modelo, para posteriormente desarrollar sus componentes y principios conceptuales. El modelo quedó integrado por cinco subsistemas, denominados: de la Complejidad, de la Responsabilidad Social Universitaria, Gerencial, de Procesos y de Recursos. Los subsistemas se consideran como dimensiones e indicadores para el análisis y son los agentes críticos para el funcionamiento de una IES. Los aspectos referidos a lo Epistemetodológico, comenzó por identificar el enfoque epistemológico que sustenta el abordaje metodológico escogido. A continuación se identifican los elementos clásicos que se siguieron para llevar a cabo la investigación: Alcance o profundidad, población y muestra, instrumentos de recolección de información y su validación, para finalizar con la explicación procedimental para validar el modelo MIEGIES. La población considerada para el estudio empírico de validación fueron 585 personas distribuidas entre alumnos, docentes, personal administrativo y directivos de una Universidad Pública Venezolana. La muestra calculada fue de 238 individuos, número considerado representativo de la población. La aplicación de los instrumentos diseñados y validados permitió la obtención de un conjunto de datos, a partir de los cuales se validó el modelo MIEGIES. La validación del Modelo MIGEIES parte de sugerencias conceptuales para el análisis de los datos. Para ello se identificaron las variables relevantes, que pueden ser constructos o conceptos, las variables latentes que no pueden ser medidas directamente, sino que requiere seleccionar los indicadores que mejor las representan. Se aplicó la estrategia de modelación confirmatoria de los Modelos de Ecuaciones Estructurales (SEM). Para ello se parte de un análisis descriptivo de los datos, estimando la fiabilidad. A continuación se aplica un análisis factorial exploratorio y un análisis factorial confirmatorio. Para el análisis de la significancia del modelo global y el impacto en la planificación y gestión, se consideran el análisis de coeficientes de regresión y la tabla de ANOVA asociada, la cual de manera global especifica que el modelo planteado permite explicar la relación entre las variables definidas para la evaluación de la gestión de las IES. Así mismo, se encontró que este resultado de manera global explica que en la evaluación institucional tiene mucha importancia la gestión de la calidad y las finanzas. Es de especial importancia destacar el papel que desarrolla la planificación estratégica como herramienta de gestión que permite apoyar la toma de decisiones de las organizaciones en torno al quehacer actual y al camino que deben recorrer en el futuro para adecuarse a los cambios y a las demandas que les impone el entorno. El contraste estadístico de los dos modelos ajustados, el teórico y el empírico, permitió a través de técnicas estadísticas multivariables, demostrar de manera satisfactoria, la validez y aplicación del modelo propuesto en las IES. Los resultados obtenidos permiten afirmar que se pueden estimar de manera significativa los constructos que definen la evaluación de las instituciones de educación superior mediante el modelo elaborado. En el capítulo correspondiente a Conclusiones, se presenta en una de las primeras instancias, la relación conceptual propuesta entre los procesos de evaluación de la gestión institucional y de los cinco subsistemas que la integran. Posteriormente se encuentra que los modelos de ecuaciones estructurales con base en la estrategia de modelación confirmatoria es una herramienta estadística adecuada en la validación del modelo teórico, que fue el procedimiento propuesto en el marco de la investigación. En cuanto al análisis del impacto del Modelo en la Planificación y la Gestión, se concluye que ésta es una herramienta útil para cerrar el círculo de evaluación institucional. La planificación y la evaluación institucional son procesos inherentes a la filosofía de gestión. Es por ello que se recomienda su práctica como de necesario cumplimiento en todas las instancias funcionales y operativas de las Instituciones de Educación Superior. ABSTRACT The purpose of this dissertation is the development of a comprehensive model of management evaluation for higher education institutions (HEIs), based on evaluating the management of different subsystems and study the impact on planning and institutional management. This model was named Institutional Assessment Comprehensive Evaluation Model for the Management of HEI (in Spanish, MIEGIES). The model incorporates the management of complexity, management issues, commitment and social responsibility and resources in addition to the university's own processes with a comprehensive view of management. The conceptual bases are established by a review of the global context of higher education, through analysis and quality assessment in university environments. The following conceptual discussions covered the management of complexity, management practice, management of university social responsibility, resources and processes, followed by a contribution of modeling and models. Finally, a theoretical overview of the scope of application of structural equation model (SEM) validation is presented. The development of the conceptual model, dimensions and indicators was carried out applying the principles of soft systems methodology (SSM). For this, the root definition (RD), the systemic rationale of the model, to further develop their components and conceptual principles are identified. The model was composed of five subsystems, called: Complexity, University Social Responsibility, Management, Process and Resources. The subsystems are considered as dimensions and measures for analysis and are critical agents for the functioning of HEIs. In matters relating to epistemology and methodology we began to identify the approach that underpins the research: Scope, population and sample and data collection instruments. The classic elements that were followed to conduct research are identified. It ends with the procedural explanation to validate the MIEGIES model. The population considered for the empirical validation study was composed of 585 people distributed among students, faculty, staff and authorities of a public Venezuelan university. The calculated sample was 238 individuals, number considered representative of the population. The application of designed and validated instruments allowed obtaining a data set, from which the MIEGIES model was validated. The MIGEIES Model validation is initiated by the theoretical analysis of concepts. For this purpose the relevant variables that can be concepts or constructs were identified. The latent variables cannot be measured directly, but require selecting indicators that best represent them. Confirmatory modeling strategy of Structural Equation Modeling (SEM) was applied. To do this, we start from a descriptive analysis of the data, estimating reliability. An exploratory factor analysis and a confirmatory factor analysis were applied. To analyze the significance of the overall models the analysis of regression coefficients and the associated ANOVA table are considered. This comprehensively specifies that the proposed model can explain the relationship between the variables defined for evaluating the management of HEIs. It was also found that this result comprehensively explains that for institutional evaluation quality management and finance are very important. It is especially relevant to emphasize the role developed by strategic planning as a management tool that supports the decision making of organizations around their usual activities and the way they should evolve in the future in order to adapt to changes and demands imposed by the environment. The statistical test of the two fitted models, the theoretical and the empirical, enabled through multivariate statistical techniques to demonstrate satisfactorily the validity and application of the proposed model for HEIs. The results confirm that the constructs that define the evaluation of HEIs in the developed model can be estimated. In the Conclusions section the conceptual relationship between the processes of management evaluation and the five subsystems that comprise it are shown. Subsequently, it is indicated that structural equation models based on confirmatory modeling strategy is a suitable statistical tool in validating the theoretical model, which was proposed in the framework of the research procedure. The impact of the model in Planning and Management indicates that this is a useful tool to complete the institutional assessment. Planning and institutional assessment processes are inherent in management philosophy. That is why its practice is recommended as necessary compliance in all functional and operational units of HEIs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis del rendimiento en deportes juega un papel esencial en el fútbol profesional. Aunque el estudio del análisis del juego en fútbol se ha utilizado desde diferentes ámbitos y situaciones, todavía existen diferentes aspectos y componentes del juego que siguen sin estar estudiados. En este sentido existen diferentes aspectos que deben de superar los estudios previos centrados en el componente descriptivo tales como el uso de variables/ indicadores de rendimiento que no se han definido ni estudiado, la validez de los métodos observaciones que no han sido testados con los softwares específicos en fútbol, la aplicación y utilidad de los resultados, así como las limitaciones del estudio de las variables situacionales/contextuales. Con el objetivo de cubrir las citadas limitaciones se han diseñado 6 estudios independientes e inter-relacionados que tratan de estudiar los aspectos anteriormente referidos. El primer estudio evalua la fiabilidad inter-observadores de las estadísticas de juego de la empresa privada OPTA Sportsdata, estos datos son la muestra de estudio de la presente tesis doctoral. Dos grupos de observadores experimentados se requieren para analizar un partido de la liga española de manera independiente. Los resultados muestran que los eventos de equipos y porteros codificados por los inter-operadores alcanzan un acuerdo muy bueno (valores kappa entre 0.86 y 0.94). La validez inter-observadores de las acciones de juego y los datos de jugadores individuales se evaluó con elevados niveles de acuerdo (valores del coeficiente de correlación intraclase entre 0.88 hasta 1.00, el error típico estandarizado variaba entre 0.00 hasta 0.37). Los resultados sugieren que las estadísticas de juego registradas por los operadores de la empresa OPTA Sportsdata están bien entrenados y son fiables. El segundo, tercer y cuarto estudio se centran en resaltar la aplicabilidad del análisis de rendimiento en el fútbol así como para explicar en profundidad las influencias de las variables situacionales. Utilizando la técnica de los perfiles de rendimiento de jugadores y equipos de fútbol se puede evaluar y comparar de manera gráfica, fácil y visual. Así mismo, mediante esta técnica se puede controlar el efecto de las variables situacionales (localización del partido, nivel del equipo y del oponente, y el resultado final del partido). Los perfiles de rendimiento de porteros (n = 46 porteros, 744 observaciones) y jugadores de campo (n = 409 jugadores, 5288 observaciones) de la primera division professional de fútbol Española (La Liga, temporada 2012-13), los equipos (n = 496 partidos, 992 observaciones) de la UEFA Champions League (temporadas 2009-10 a 2012-13) fueron analizados registrando la media, desviación típica, mediana, cuartiles superior e inferior y el recuento de valores de cada indicador de rendimiento y evento, los cuales se presentaron en su forma tipificada y normalizada. Los valores medios de los porteros de los equipos de diferentes niveles de La Liga y de los equipos de diferente nivel de la UEFA Champions League cuando jugaban en diferentes contextos de juego y situaciones (variables situacionales) fueron comparados utilizando el ANOVA de un factor y la prueba t para muestras independientes (localización del partido, diferencias entre casa y fuera), y fueron establecidos en los perfiles de red después de unificar todos los registros en la misma escala derivada con valores estandarizados. Mientras que las diferencias de rendimiento entre los jugadores de los mejores equipos (Top3) y los peores (Bottom3) fueron comparados mediante el uso de diferencias en la magnitud del tamaño del efecto. El quinto y el sexto estudio analizaban el rendimiento del fútbol desde un punto de vista de predicción del rendimiento. El modelo linear general y el modelo lineal general mixto fue empleado para analizar la magnitud de las relaciones de los indicadores y estadísticas de juego con el resultado final del partido en función del tipo de partido (partidos ajustados o todos los partidos) en la fase de grupos de la Copa del Mundo 2014 de Brasil (n = 48 partidos, 38 partidos ajustados) y La Liga 2012-13 (n = 320 partidos ajustados). Las relaciones fueron evaluadas mediante las inferencias en la magnitud de las diferencias y se expresaron como partidos extra ganados o perdidos por cada 10 partidos mediante la variable calculada en 2 desviaciones típicas. Los resultados mostraron que, para los 48 partidos de la fase de grupos de la Copa del Mundo 2014, nueve variables tuvieron un efecto positive en la probabilidad de ganar (tiros, tiros a puerta, tiros de contraataque, tiros dentro del área, posesión de balón, pases en corto, media de secuencia de pases, duelos aéreos y entradas), cuatro tuvieron efectos negativos (tiros bloqueados, centros, regates y tarjetas amarillas), y otras 12 variables tenían efectos triviales o poco claros. Mientras que los 38 partidos ajustados, el efecto de duelos aéreos y tarjetas amarillas fueron triviales y claramente negativos respectivamente. En la La Liga, existió un efecto moderado positive para cada equipo para los tiros a puerta (3.4 victorias extras por cada 10 partidos; 99% IC ±1.0), y un efecto positivo reducido para tiros totales (1.7 victorias extrsa; ±1.0). Los efectos de la mayoría de los eventos se han relacionado con la posesión del balón, la cual obtuvo efectos negativos entre equipos (1.2 derrotas extras; ±1.0) pero un efecto positivo pequeño entra equipos (1.7 victorias extras; ±1.4). La localización del partido mostró un efecto positive reducido dentro de los equipos (1.9 victorias extras; ±0.9). Los resultados obtenidos en los perfiles y el modelado del rendimiento permiten ofrecer una información detallada y avanzada para el entrenamiento, la preparación previa a los partidos, el control de la competición y el análisis post-partido, así como la evaluación e identificación del talento de los jugadores. ABSTRACT Match performance analysis plays an important role in the modern professional football. Although the research in football match analysis is well-developed, there are still some issues and problems remaining in this field, which mainly include the lack of operational definitions of variables, reliability issues, applicability of the findings, the lack of contextual/situational variables, and focusing too much on descriptive and comparative analysis. In order to address these issues, six independent but related studies were conducted in the current thesis. The first study evaluated the inter-operator reliability of football match statistics from OPTA Sportsdata Company which is the data resourse of the thesis. Two groups of experienced operators were required to analyse a Spanish league match independently in the experiment. Results showed that team events and goalkeeper actions coded by independent operators reached a very good agreement (kappa values between 0.86 and 0.94). The inter-operator reliability of match actions and events of individual outfield players was also tested to be at a high level (intra-class correlation coefficients ranged from 0.88 to 1.00, standardised typical error varied from 0.00 to 0.37). These results suggest that the football match statistics collected by well-trained operators from OPTA Sportsdata Company are reliable. The second, third and fourth study aims to enhance the applicability of football match performance analysis and to explore deeply the influences of situational variables. By using a profiling technique, technical and tactical performances of football players and teams can be interpreted, evaluated and compared more easily and straightforwardly, meanwhile, influences and effects from situational variables (match location, strength of team and opposition, and match outcome) on the performances can be properly incorporated. Performance profiles of goalkeepers (n = 46 goalkeepers, 744 full match observations) and outfield players (n = 409 players, 5288 full match observations) from the Spanish First Division Professional Football League (La Liga, season 2012-13), teams (n = 496 matches, 992 observations) from UEFA Champions League (seasons 2009-10 to 2012-13) were set up by presenting the mean, standard deviation, median, lower and upper quartiles of the count values of each performance-related match action and event to represent their typical performances and spreads. Means of goalkeeper from different levels of team in La Liga and teams of different strength in UEFA Champions League when playing under different situational conditions were compared by using one-way ANOVA and independent sample t test (for match location, home and away differences), and were plotted into the same radar charts after unifying all the event counts by standardised score. While differences between the performances of outfield players from Top3 and from Bottom3 teams were compared by magnitude-based inferences. The fifth and sixth study aims to move from the descriptive and comparative football match analysis to a more predictive one. Generalised linear modelling and generalised mixed linear modelling were undertaken to quantify relationships of the performance-related match events, actions and variables with the match outcome in different types of games (close games and all games) in the group stage of 2014 Brazil FIFA World Cup (n = 48 games, 38 close games) and La Liga 2012-13 (n = 320 close games). Relationships were evaluated with magnitude-based inferences and were expressed as extra matches won or lost per 10 matches for an increase of two standard deviations of a variable. Results showed that, for all the 48 games in the group stage of 2014 FIFA World Cup, nine variables had clearly positive effects on the probability of winning (shot, shot on target, shot from counter attack, shot from inside area, ball possession, short pass, average pass streak, aerial advantage, and tackle), four had clearly negative effects (shot blocked, cross, dribble and red card), other 12 variabless had either trivial or unclear effects. While for the 38 close games, the effects of aerial advantage and yellow card turned to trivial and clearly negative, respectively. In the La Liga, there was a moderate positive within-team effect from shots on target (3.4 extra wins per 10 matches; 99% confidence limits ±1.0), and a small positive within-team effect from total shots (1.7 extra wins; ±1.0). Effects of most other match events were related to ball possession, which had a small negative within-team effect (1.2 extra losses; ±1.0) but a small positive between-team effect (1.7 extra wins; ±1.4). Game location showed a small positive within-team effect (1.9 extra wins; ±0.9). Results from the established performance profiles and modelling can provide detailed and straightforward information for training, pre-match preparations, in-match tactical approaches and post-match evaluations, as well as for player identification and development. 摘要 比赛表现分析在现代足球中起着举足轻重的作用。尽管如今对足球比赛表现分析的研究已经相对完善,但仍有很多不足之处。这些不足主要体现在:研究中缺乏对研究变量的清晰定义、数据信效度缺失、研究结果的实用性受限、比赛情境因素缺失以及过于集中在描述性和对比性分析等。针对这些问题,本论文通过六个独立而又相互联系的研究,进一步对足球比赛表现分析进行完善。 第一个研究对本论文的数据源--OPTA Sportsdata公司的足球比赛数据的信效度进行了实验检验。实验中,两组数据收集人员被要求对同一场西班牙足球甲级联赛的比赛进行分析。研究结果显示,两组收集人员记录下的球队比赛事件和守门员比赛行为具有高度的一致性(卡帕系数介于0.86和0.94)。收集人员输出的外场球员的比赛行为和比赛事件也具有很高的组间一致性(ICC相关系数介于0.88和1.00,标准化典型误差介于0.00和0.37)。实验结果证明了OPTA Sportsdata公司收集的足球比赛数据具有足够高的信效度。 第二、三、四个研究旨在提升足球比赛表现分析研究结果的实用性以及深度探讨比赛情境因素对足球比赛表现的影响。通过对足球运动员和运动队的比赛技战术表现进行档案创建,可以对运动员和运动队的比赛表现进行简直接而直观的呈现、评价和对比,同时,情境变量(比赛场地、球队和对手实力、比赛结果)对比赛表现的影响也可以被整合到表现档案中。本部分对2012-13赛季西班牙足球甲级联赛的参赛守门员(n = 46球员人次,744比赛场次)和外场球员(n = 409球员人次, 5288比赛场次)以及2009-10至2012-13赛季欧洲足球冠军联赛的参赛球队(n = 496比赛场次)的比赛技战术表现进行了档案创建。在表现档案中,各项比赛技战术指标的均值、标准差、中位数和大小四分位数被用来展现守门员、外场球员和球队的普遍表现和表现浮动性。方差分析(ANOVA)被用来对西甲不同水平球队的守门员、欧冠中不同水平球队在不同比赛情境下的普遍表现(各项指标的均值)进行对比,独立样本t检验被用来对比主客场比赛普遍表现的差异。数据量级推断(magnitude-based inferences)的方法则被用来对西甲前三名和最后三名球队外场球员的普遍表现进行对比分析。所有来自不同水平球队的运动员和不同水平运动队的各项比赛指标皆被转换成了标准分数,从而能把他们在各种不同比赛情境下的普遍表现(各项比赛指标的均值)投到相同的雷达图中进行直观的对比。 第五和第六个研究目的在于进行预测性足球比赛表现分析,从而跨越之前固有的描述性和对比性分析。广义线性模型和广义混合线性模型被用来对2014年巴西世界杯小组赛(n = 48 比赛场次,38小分差场次)和2012-13赛季西甲联赛(n = 320小分差场次)的比赛中各表现相关比赛事件、行为和变量与比赛结果(胜、平、负)的关系进行建模。模型中的关系通过数据量级推断(magnitude-based inferences)的方法来界定,具体表现为某个变量增加两个标准差对比赛结果的影响(每10场比赛中额外取胜或失利的场数)。研究结果显示,在2014年巴西世界杯小组赛的所有48场比赛中,9个变量(射门、射正、反击中射门、禁区内射门、控球、短传、连续传球平均次数、高空球争抢成功率和抢断)与赢球概率有清晰的正相关关系,4个变量(射门被封堵、传中、过人和红牌)与赢球概率有清晰的负相关关系,其他12个被分析的变量与赢球概率的相关关系微小或不清晰。而在38场小分差比赛中,高空球争抢成功率由正相关变为微小关系,黄牌则由微小关系变为清晰的负相关。在西甲联赛中,每一支球队增加两个标准差的“射正球门”可以给每10场比赛带来3.4场额外胜利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“射正球门”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.0场)。其他大多数比赛相关事件与比赛结果的相关关系与“控球”相关联。每一支球队增加两个标准差的“控球”将会给每10场比赛带来1.2场额外失利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“控球”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.4场)。与客场比赛相对,主场能给球队带来1.9 /10场额外胜利(99%置信区间±0.9场)。 比赛表现档案和模型中得出的研究结果可以为俱乐部、足球队、教练组、表现分析师和运动员提供详细而直接的参考信息。这些信息可用于训练指导、赛前备战、赛中技战术调整和赛后技战术表现分析,也可运用于足球运动员选材、培养和发展。

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La marcha humana es el mecanismo de locomoción por el cual el cuerpo humano se traslada en línea recta gracias a una serie de movimientos coordinados de la pelvis y de las articulaciones del miembro inferior. Frecuentemente se encuentra influenciada por factores biomecánicos, anatómicos o patologías del sistema neuromusculoesquelético que modifican la forma de caminar de cada individuo. La lesión de médula espinal es una de las patologías que afectan el desarrollo normal de los patrones de la marcha por alteración de la movilidad, de la sensibilidad o del sistema nervioso autónomo. Aunque la lesión medular afecta otras funciones, además de la pérdida de función motora y sensorial, la recuperación de la capacidad de caminar es la mayor prioridad identificada por los pacientes durante la rehabilitación. Por ello, el desarrollo de dispositivos que faciliten la rehabilitación o compensación de la marcha es uno de los principales objetivos de diferentes grupos de investigación y empresas. En el contexto del proyecto Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients se ha desarrollado un dispositivo que combina una órtesis activa (exoesqueleto) y un andador motorizado. Este sistema, como otros dispositivos, tiene el movimiento humano como estándar de referencia, no obstante no se evalúa de manera habitual, cómo es el patrón de la marcha reproducido y su similitud o diferencias con la marcha humana, o las modificaciones o adaptaciones en la interacción con el cuerpo del paciente. El presente estudio trata de examinar las características de la marcha normal en diversos grupos de población, y las diferencias con el patrón de marcha lenta. Finalmente, se pretende evaluar qué modificaciones y adaptaciones sufre el patrón de marcha lenta teórico al ser reproducido por el exoesqueleto. La presente investigación consiste en un estudio cuantitativo transversal desarrollado en dos etapas: estudio 1 y estudio 2. En el estudio 1 se analizó el patrón de la marcha a velocidad libremente seleccionada (normal) y el patrón de la marcha a velocidad lenta (0.25m/s) en 62 sujetos distribuidos en grupos considerando el sexo y los percentiles 25, 50 y 75 de estatura de la población española. Durante el estudio 2 se analizó el patrón de la marcha lenta reproducido por el dispositivo Hybrid a diferentes porcentajes de peso corporal (30%, 50% y 70%) en diez sujetos seleccionados aleatoriamente de la muestra del estudio 1. En ambos estudios se obtuvieron variables espacio-temporales y cinemáticas mediante un sistema de captura de movimiento con 6 cámaras distribuidas a lo largo de un pasillo de marcha. Se calcularon las medias, las desviaciones estándar y el 95% de intervalo de confianza, y el nivel alfa de significación se estableció en α=0.05 para todas las pruebas estadísticas. Las principales diferencias en el patrón normal de la marcha se encontraron en los parámetros cinemáticos de hombres y mujeres, aunque también se presentaron diferencias entre los grupos en función de la estatura. Las mujeres mostraron mayor flexión de cadera y rodilla, y mayor extensión de tobillo que los hombres durante el ciclo normal, aunque la basculación lateral de la pelvis, mayor en las mujeres, y el desplazamiento lateral del centro de gravedad, mayor en los hombres, fueron los parámetros identificados como principales discriminantes entre sexos. La disminución de la velocidad de la marcha mostró similares adaptaciones y modificaciones en hombres y en mujeres, presentándose un aumento de la fase de apoyo y una disminución de la fase de oscilación, un retraso de los máximos y mínimos de flexoextensión de cadera, rodilla y tobillo, y una disminución del rango articular en las tres articulaciones. Asimismo, la basculación lateral de la pelvis y el movimiento vertical del centro de gravedad disminuyeron, mientras que el movimiento lateral del centro de gravedad y el ancho de paso aumentaron. Durante la evaluación del patrón de la marcha reproducido por el exoesqueleto se observó que las tres articulaciones del miembro inferior disminuían el rango de movimiento por la falta de fuerza de los motores para contrarrestar el peso corporal, incluso con un 70% de descarga de peso. Además, la transferencia de peso se encontró limitada por la falta de movimiento de la pelvis en el plano frontal y se sustituyó por un aumento de la inclinación del tronco y, por tanto, del movimiento lateral del centro de gravedad. Este hecho, junto al aumento del desplazamiento vertical del centro de gravedad, hizo del patrón de la marcha reproducido por el exoesqueleto un movimiento poco eficiente. En conclusión, se establecen patrones de marcha normal diferenciados por sexos, siendo la basculación lateral de la pelvis y el movimiento lateral del centro de gravedad los parámetros discriminantes más característicos entre sexos. Comparando la marcha a velocidad libremente seleccionada y la velocidad lenta, se concluye que ambos sexos utilizan estrategias similares para adaptar el patrón de la marcha a una velocidad lenta y se mantienen las características diferenciadoras entre hombres y mujeres. En relación a la evaluación del dispositivo Hybrid, se deduce que la falta de movimiento lateral de la pelvis condiciona la transferencia de peso y el aumento del rango de movimiento del centro de gravedad y, en consecuencia, tiene como resultado un patrón de la marcha poco eficiente. Este patrón no resultaría indicado para los procesos de rehabilitación o recuperación de la marcha, aunque podría considerarse adecuado para la compensación funcional de la bipedestación y la locomoción. ABSTRACT The human walking is a means of moving body forward using a repetitious and coordinated sequence of pelvis and lower limb motions. It is frequently influenced by biomechanical and anatomical factors or by musculoskeletal pathologies which modify the way of walking. The spinal injury is one of those pathologies which affect the normal pattern of walking, due to the alteration of the mobility, the sensory or the autonomic nervous system. Although the spinal injury affects many other body functions, apart from the motor and sensory ones, the main priority for patients is to recover the ability of walking. Consequently, the main objective of many research groups and private companies is the development of rehabilitation and compensation devices for walking. In this context, the Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients project has developed a device which integrates an exoskeleton and a motorized smart walker. This system, as other similar devices, has the human movement as standard reference. Nevertheless, these devices are not usually evaluated on the way they reproduce the normal human pattern or on the modifications and in the interactions with the patient’s body. The aim of the present study is to examine the normal walking characteristics, to analyze the differences between self-selected and low speed walking patterns, and to evaluate the modifications and adaptations of walking pattern when it is reproduced by the exoskeleton. The present research is a quantitative cross-sectional study carried out in two phases: study 1 and study 2. During the study 1, the self-selected and the low speed (0.25m/s) walking patterns were analyzed in sixty-two people distributed in groups, according to sex and 25th, 50th and 75th percentiles of height for Spanish population. The study 2 analyzed the low speed walking pattern reproduced by the Hybrid system in three conditions: 30%, 50% and 70% of body weight support. To do this, ten subjects were randomly selected and analyzed from the people of study 1. An optoelectronic system with six cameras was used to obtain spatial, temporal and kinematic parameters in both studies. Means, standard deviations and 95% confidence intervals of the study were calculated. The alpha level of significance was set at α=0.05 for all statistical tests. The main differences in normal gait pattern were found in kinematic parameters between men and women. The hip and the knee were more flexed and the ankle plantar flexion was higher in women than in men during normal gait cycle. Although the greater pelvic obliquity of women and the higher lateral movement of center of gravity of men were the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, both sexes showed similar adaptations and modifications. At low speed walking, men and women increased the stance phase ratio and decreased the swing phase ratio. The maximum and minimum peak flexion of hip, knee and ankle appeared after and the range of motion of them decreased during low speed walking. Furthermore, the pelvic obliquity and the vertical movement of the center of gravity decreased, whereas the lateral movement of center of gravity and step width increased. Evaluating the gait pattern reproduced by the exoskeleton, a decrease of lower limb range of motion was observed. This was probably due to the lack of strength of the engines, which were not able to control the body weight, even with the 70% supported. Moreover, the weight transfer from one limb to the contralateral side was restricted due to the lack of pelvis obliquity. This movement deficiency was replaced by the lateral torso sway and, consequently, the increase of lateral movement of the center of gravity. This fact, as well as the increase of the vertical displacement of the center of gravity, made inefficient the gait pattern reproduced by the exoskeleton. In conclusion, different gait patterns of both sexes have been determined, being pelvis obliquity and lateral movement of center of gravity the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, it was concluded that both sexes use similar strategies for adapting the gait pattern to a low speed, and therefore, the differentiating characteristics of normal gait are maintained. Regarding the Hybrid system evaluation, it was determined that the gait pattern reproduced by the exoskeleton is inefficient. This was due to the lack of pelvis obliquity and the increase of the center of gravity displacement. Consequently, whereas the walking pattern reproduced by the exoskeleton would not be appropriated for the rehabilitation process, it could be considered suitable for functional compensation of walking and standing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo demostrar que los programas de preservación del patrimonio, durante su fase de implementación, deben someterse a un análisis multidisciplinar que haga un balance de su ejecución. Dicho análisis permitirá identificar resultados significativos, capaces de fundamentar la rectificación de las bases conceptuales de la política pública en cuestión. Este reajuste podrá darse, por lo tanto, durante su vigencia y, de forma más relevante, posteriormente, sus motivos y resultados permitirán elaborar nuevas estrategias que serán aplicadas en futuros programas de intervención. Por otro lado se indagó, además, si las ciudades participantes en un programa nacional de preservación del patrimonio, regidas por normas y metas comunes, podrían alcanzar resultados diferentes. Para atender a estos objetivos, la investigación se encuentra enfocada a la realidad brasileña, siendo seleccionado como objeto de estudio el Programa Monumenta. Este Programa formó parte de la política pública cultural del Ministerio de Cultura con una importante implicación del Banco Interamericano de Desarrollo. Implementado a partir de 1999, procuró promover un proceso de recuperación urbana sostenible y de preservación del patrimonio de 26 Sitios Históricos Urbanos o Conjuntos de Monumentos Urbanos protegidos por el Instituto del Patrimonio Histórico y Artístico Nacional (Iphan). El Programa contó con el apoyo de la Unesco y del Iphan, así como con la participación de las Administraciones Municipales y/o Estatales, sectores privados y la sociedad civil. Las hipótesis planteadas en esta Tesis Doctoral fueron: (a) el análisis de los resultados en la fase de implementación de un programa de preservación del patrimonio es imprescindible, porque permite extraer conclusiones preliminares y orientar sus reformas; (b) los objetivos a corto plazo establecidos por el Programa Monumenta fueron alcanzados de modo diferenciado en las distintas ciudades beneficiadas; (c) a pesar de las diferencias, el Programa Monumenta presentó resultados preliminares positivos y significativos en la preservación del patrimonio histórico urbano brasileño. Los procedimientos metodológicos se centraron en un análisis cuantitativo, cualitativo y comparativo de los resultados alcanzados por tres ciudades beneficiadas por el Programa Monumenta, seleccionadas según su tamaño poblacional: Pelotas, Porto Alegre (Estado de Rio Grande do Sul) y São Francisco do Sul (Estado de Santa Catarina). Estos procedimientos fueron aplicados en los siguientes indicadores: utilización de los equipamientos culturales, características de la población y de los domicilios, variación de las actividades económicas, financiación destinada al sector privado para la recuperación de inmuebles y el fomento de la seguridad urbana. La Tesis ha englobado discusiones y conceptos abordados en las disciplinas de la Sociología Urbana, Geografía Urbana, Historia, Economía y Estadística de modo que se atribuye al objeto de investigación una visión interdisciplinar que ayudará a la comprensión de la teoría y la práctica preservacionistas. El análisis de la varianza, la regresión lineal y el análisis factorial fueron las herramientas estadísticas aplicadas sobre los datos con el objetivo de constatar la significación de los resultados y la relación de correspondencia entre algunas variables. Esta Tesis contribuye a la elaboración de una metodología analítica que puede ser aplicada en el cálculo de la superficie ocupada por las actividades económicas, con base en el método estadístico del Diagrama de Caja y Bigotes, de John Wilder Tukey. Las conclusiones corroboran las hipótesis planteadas y pretenden contribuir al diseño de las nuevas políticas públicas de preservación de sitios históricos de carácter urbano, enfatizando, con ello, la necesidad de evaluaciones más profundas de los resultados durante su fase de implementación. ---------------------------------------------------------------------------------- RESUMO--------------------------------------------------------------------------- A presente Tese apresenta como objetivo principal demonstrar que os programas de preservação do patrimônio histórico, durante a sua fase de implementação, necessitam de uma análise multidisciplinar sobre a sua execução. Essa análise permite identificar resultados significativos, capazes de fundamentar a retificação das bases conceituais da política pública em questão. A correção poderá, portanto, ser realizada tanto durante a sua vigência como posteriormente, ao permitir a elaboração de novas estratégias a serem aplicadas nos futuros programas de intervenção. Por outro lado, indagou-se se cidades participantes de um mesmo programa nacional de preservação do patrimônio histórico, regidas por normas e metas comuns, poderiam alcançar resultados não similares. Para atender tais objetivos, a investigação enfoca a realidade brasileira, tendo sido selecionado o Programa Monumenta como objeto de estudo. Esse Programa fez parte de uma política pública cultural do Ministério da Cultura, que atuou em parceria com o Banco Interamericano de Desenvolvimento. Implantado em nível nacional, a partir de 1999, visava promover um processo de recuperação urbana sustentável, bem como a preservação do patrimônio de 26 Sítios Urbanos Históricos ou Conjuntos de Monumentos Urbanos, protegidos pelo Instituto do Patrimônio Histórico e Artístico Nacional (Iphan). O Programa contou com o apoio da Unesco e do Iphan, além da participação das Administrações Municipais e/ou Estaduais, setores privados e sociedade civil. As hipóteses estabelecidas nesta Tese Doutoral foram: (a) a análise dos resultados na fase de implementação de um programa de preservação do patrimônio é imprescindível, pois permite extrair conclusões preliminares e orientar as suas reformulações; (b) os objetivos em curto prazo, estabelecidos pelo Programa Monumenta, foram alcançados de modo diferente pelas cidades beneficiadas; (c) apesar das diferenças, o Programa Monumenta apresentou resultados preliminares positivos e significativos sobre a preservação do patrimônio histórico urbano brasileiro. Os procedimentos metodológicos se centraram em análises quantitativa, qualitativa e comparativa dos resultados alcançados em três cidades beneficiadas pelo Programa Monumenta, selecionadas de acordo com o tamanho populacional: Pelotas, Porto Alegre (Estado do Rio Grande do Sul) e São Francisco do Sul (Estado de Santa Catarina). Esses procedimentos foram aplicados nos seguintes indicadores: utilização dos equipamentos culturais, características da população e dos domicílios, atividades econômicas, financiamento destinado ao setor privado para a recuperação dos imóveis e, ainda, o fomento da segurança urbana. A Tese inclui discussões e conceitos abordados nas disciplinas de Sociologia Urbana, Geografia Urbana, História, Economia e Estatística, de modo a atribuir ao objeto de investigação uma visão interdisciplinar e uma compreensão entre a teoria e a prática preservacionista. A análise de variância, regressão linear e análise fatorial foram as técnicas estatísticas aplicadas sobre os dados, com o objetivo de constatar a significação dos resultados e a relação de correspondência entre algumas variáveis. Esta Tese contribui com a elaboração de uma metodologia aplicada no cálculo da superfície ocupada pelas atividades econômicas, utilizando como método estatístico o Diagrama de Caixa e Bigodes, de John Wilder Tukey. As conclusões corroboram com as hipóteses estabelecidas e pretendem contribuir para o desenho de novas políticas públicas de preservação de sítios históricos de caráter urbano, enfatizando a necessidade de avaliações mais profundas dos resultados durante a sua fase de implementação. ---------------------------------------------------------------------------------- ABSTRACT ---------------------------------------------------------------------------------- The main goal of this PhD. Thesis is to demonstrate that a multidisciplinary analysis is needed during the implementation phase of preservation of heritage programmes. Such analysis allows the identification of significant results, which in turn can serve as the foundation for the conceptual bases of the public policy at hand. Thus, any corrections can be made both during the programme and afterward, by introducing new strategies to be applied in future intervention programmes. On the other hand, this project also asks whether cities participating in the same national preservation of heritage programme with common rules and goals can achieve distinct results. In order to meet these objectives, the project chose Brazil as its focus and Monumenta Programme for its object of study. This Programme is part of the Ministry of Culture’s public cultural policy, and was developed with cooperation by the Inter-American Development Bank. Implemented at the national level in 1999, the Programme aimed at promoting a process of sustainable urban renewal and the preservation of 26 urban historic sites or urban monumental ensembles, protected by the National Historic and Artistic Heritage Institute (IPHAN). UNESCO and IPHAN supported the Programme, and participants included municipal and state offices, private businesses, and local residents. The hypotheses established in this Doctoral Thesis were: (a) the analysis of the results in the implementation phase of a cultural public policy is imperative, because it enables preliminary conclusions to be drawn and orientate reforms; (b) the short-term objectives set out in the Monumenta Programme were achieved differently in the benefitted cities; (c) despite the differences, the Monumenta Programme displayed significant positive preliminary results in the conservation of the urban historic heritage in Brazil. Methodology procedures centered around quantitative, qualitative, and comparative analyses of the results achieved in three benefiting cities, selected according to population size: Pelotas, Porto Alegre (Rio Grande do Sul State) and São Francisco do Sul (Santa Catarina State). These procedures were applied to the following indicators: the use of the cultural facilities, characteristics of the population and the residential housing, variation of the economic activities, financing destined for the recovery of real estate, and promoting urban safety. The Thesis includes discussions and concepts addressed in urban sociology, urban geography, history, economics, and statistics, in order to examine the object of study with an interdisciplinary eye and an understanding between preservation theory and practice. Variance analysis, linear regression, and factorial analysis were the statistical techniques applied to the data, with the goal of defining the significance of the results and the correspondence ratio between some of the variables. This Thesis attempted to elaborate an applied methodology for calculating the space occupied by economic activities, using John Wilder Tukey's statistical method of Box-and-Whisker Plot. The conclusions corroborated the hypotheses established and are meant to contribute to the design of new public policies of historical site preservation in urban settings, emphasizing the need for deeper evaluations of the results during the implementation phase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La particular ubicación del Parque Nacional da Tijuca en el entorno urbano de la ciudad de Rio de Janeiro justifica la estrecha relación que sus habitantes han tenido históricamente con las montañas, sobre las que se asienta el P.N. Su población de más de 6 millones de habitantes, las altas temperaturas de su clima tropical húmedo, y el creciente interés por el turismo ecológico, hacen del baño en las cascadas de la Floresta da Tijuca una actividad habitual entre los cariocas. El posible impacto de los usos recreativos sobre las comunidades biológicas del entorno de las cascadas, en ocasiones localizadas en zonas de alto valor ecológico, aún no es suficientemente conocido, no ha sido evaluado, ni está contemplado en los planes oficiales del P.N. La decisión de permitir oficialmente el baño en una sucesión de cascadas concretas, situadas en un sector del Parque donde el baño no está permitido por el Plan de Gestión, pero donde se ha comprobado que este uso se produce con regularidad, y el potencial incremento en el número de visitantes que puede derivar de la divulgación al público de este permiso justifican el presente estudio. El trabajo, realizado bajo la co-dirección del profesor responsable del Laboratório de Ecologia de Florestal de la Universidad Federal del Estado de Rio de Janeiro, responde a la solicitud del P.N. de un estudio que evalúe el estado de conservación de la vegetación en el entorno de dichas cascadas, en el momento previo a la divulgación del permiso. Se pretende comprobar si existe degradación en el estrato arbóreo-arbustivo que pueda estar asociada a los usos recreativos que se dan en estas cascadas, bajo los niveles de visitación actuales. Se ha realizado una comparación del estado de conservación de dicho estrato, entre el entorno de las cascadas -representado por el muestreo de 10 parcelas que componen el conjunto CP-, y una zona alejada que se considera “libre” de presión antrópica debido a su menor accesibilidad -representada por el muestreo de 10 parcelas que componen el conjunto CL-. Dichos conjuntos se han comparado en lo referente a su composición florística (diversidad, en términos de riqueza observada, riqueza esperada, y equidad; especies predominantes y especies exóticas y amenazadas), atributos de desarrollo morfo-estructural (altura media, área basimétrica, proporción de individuos multicaules, densidad de individuos y proporción de individuos pertenecientes a especies exóticas y amenazadas) y atributos del medio físico que diferencian, fundamentalmente, las dos zonas comparadas (pendiente y exposición del suelo). Se han realizado comparaciones directas, en el caso de la composición florística, y comparaciones estadísticas básicas, de análisis de varianzas (ANOVA) y de análisis multivariante gráficos (de agrupamiento y NMDS) y numéricos (ANOSIM, NPMANOVA) para identificar diferencias significativas entre el entorno de las cascadas y la zona considerada “libre de impacto”. Los resultados muestran que en el momento inicial no es posible afirmar que exista degradación patente asociada a los usos recreativos en las cascadas, al no haber sido encontradas diferencias significativas en la mayor parte de las comparaciones, ni en la evaluación conjunta de todos los indicadores. Sin embargo, se han detectado importantes indicios de simplificación de la vegetación en el entorno del río, tanto en los indicadores de desarrollo estructural, como en la composición florística; y se han detectado diferencias relevantes en determinados indicadores que señalan la existencia de perturbación derivada del tránsito de visitantes, en especial sobre la exposición del suelo. Estos resultados podrían deberse a un estado incipiente de degradación, aún no claramente perceptible, y recalcan la importancia de estudiar, en los años sucesivos, la evolución del estado de conservación de la vegetación de esta zona, correlativamente a la evolución del volumen de visitantes, para comprobar y cuantificar el posible impacto antrópico derivado de los usos recreativos en estas cascadas.