54 resultados para Mediciones y pruebas educativas -- Modelos econométricos
em Universidad Politécnica de Madrid
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
La investigación actual parte de la organización tecnosocial como clave de la productividad. Se avanzan así modelos constructivos para optimizar la implantación y la transferencia de tecnología, puentes para nuevos paradigmas tecnológicos y empresariales.
Resumo:
La implantación de la televisión digital en España ha supuesto un conjunto de desafíos técnicos y de orden práctico que se han ido acometiendo en multitud de ámbitos, desde la legislación que normaliza las infraestructuras comunes de telecomunicación hasta los cambios en las instalaciones y receptores donde el usuario final recibe los servicios. Por la complejidad y el carácter interdisciplinar de los conocimientos necesarios el aprendizaje de los titulados dentro del ámbito de la Telecomunicación supone también un reto importante. Este proyecto realiza una primera aproximación a un conjunto de herramientas hardware y software de ayuda a la enseñanza de esta amplia disciplina. El proyecto se ha realizado en torno a Labmu laboratorio multiusuario para prácticas de televisión digital de la empresa Xpertia. Se ha realizado para conocer y documentar sus posibilidades. También se ha documentado la tarjeta moduladora DTA-111 y el software para Windows StreamXpress. Estos sistemas ofrecen muchas posibilidades para la docencia de la televisión digital en todas las áreas desde la codificación fuente hasta la decodificación en el usuario final. En particular para ambos sistemas se han realizado pruebas en radiofrecuencia de emisiones de TDT. También se han establecido algunas ideas para trabajo futuro con estos sistemas. El proyecto se divide en seis capítulos: Capitulo 1: En el primer capítulo titulado Introducción se presenta el proyecto. Capítulo 2: En el segundo capítulo titulado Composición Hardware Labmu se presentan todos los componentes del laboratorio Labmu con la descripción de cada componente y sus características técnicas. Así mismo se presenta el interconexionado y configuración con que se ha trabajado. Capítulo 3: En el tercer capítulo titulado Software Labmu se describe como manual de usuario todos los componentes y posibilidades de software de Labmu. Capítulo 4: En el cuarto capítulo titulado Medidas con Labmu se realiza las medidas de MER, CBER, VBER, C/N y potencia de canal de los canales emitidos en la Comunidad de Madrid, comparando estas medidas con el analizador Promax Prodig-5. Capítulo 5: En el quinto capítulo titulado Tarjeta receptora y software se describe la tarjeta DTA-111 y el software StreamXpress, realizando medidas con el analizador Promax Prodig-5 introduciendo errores a la señal emitida por la tarjeta, y estudiando los niveles límites de visualización correcta. Capítulo 6: En el sexto y último capítulo titulado Conclusiones se presentan las conclusiones del proyecto y un plan de trabajo futuro ABSTRACT. The implantation of Digital Television in Spain (TDT) has implied a number of technical and practical challenges in several scopes. These challenges range from recommendations that standardize common telecommunications infrastructure to the changes in facilities where the end user receives digital services. The complexity and the interdisciplinary nature of skills that graduate Telecommunications students need to learn, is also a major challenge. This project is a first approach of a set of hard ware and software tools to help in the task of teaching this broad range discipline. The project has been carried out on Labmu, a multiuser Digital Television laboratory created by the Xpertia company. Its objectives are to understand and document this range of possibilities. DTA-111 modulator card and software for Windows StreamXpress have also been documented. These systems offer many options for teaching digital television in all areas, from source coding to end user decoding. In particular, both systems were tested on RF emissions in TDT. More over some ideas for future work with these systems have also foreseen. The project is structured in six chapters: Chapter1: This section Introduces the project. Chapter2: Titled “The Composition Hardware Labmu” presents Labmu lab components and provides descriptions for each component and its technical characteristics. It also presents the interconnection and configuration we have been using. Chapter3: Titled “Software Labmu” is a user manual, describing all components and software possibilities Labmu offers. Chapter4: Titled “Measures to Labmu” presents MER, CBER, VBER, C /N and channel power measures provided by Labmu in comparison with Promax Prodig-5 measures for all channels broad casting digital television services in the Community of Madrid. Chapter 5 Titled “Receiver card and software” describes DTA-111 card and software StreamXpress. Also the effects of errors insertion performed by this card are measured with the PromaxProdig-5 meter. Threes hold levels for correct reception are also studied. Chapter6: Entitled Conclusions presents the conclusions of the project and a plan for future work.
Resumo:
El contenido del Proyecto Fin de Carrera está desarrollado para profundizar en el conocimiento de las aplicaciones para el procesado de datos LiDAR, si bien, puede ser utilizado también como guía o consulta por el personal docente y técnico interesado, en el desarrollo o explicación de otros trabajos de comparación de herramientas relacionadas con la topografía. Por último, se pretende con esta comparación que se pueda elegir con facilidad una u otra aplicación según las necesidades de los proyectos y las capacidades con las que se cuentan, teniendo en cuenta las limitaciones a la hora de disponer de todo lo necesario para su realización. Los objetivos que se quieren alcanzar son: • Obtención de datos geoespaciales de unas zonas para su posterior procesado. • Realizar un control de calidad general para comprobar que los datos son aptos para nuestro trabajo. • Elegir las aplicaciones informáticas y establecer unos criterios de comparación. Para después poder realizar la comparativa de las aplicaciones informáticas. La consecución de los objetivos generales es posible a partir del planteamiento de los siguientes objetivos específicos: • Presentar el vuelo de una zona y las características de este. • Realizar un control de calidad específico en altimetría y planimetría. • Justificar la elección de distintas zonas a editar. • Definir los criterios que se van a comparar. • Edición generada con las aplicaciones que se han elegido, las cuales son: FUSION, MDTopX, TerraScan, MARS y SCOP. • Y por último realizar una comparativa entre las aplicaciones según los criterios elegidos.
Resumo:
La calidad de las planchas de corcho, entendida como su aptitud para la fabricación de tapones de corcho natural, determina la clase comercial de las mismas y, por tanto, su valor económico. Esta clasificación, llevada a cabo tradicionalmente en la industria preparadora por el escogedor, depende en gran medida de las anomalías presentes en la plancha. Con el objetivo de conocer qué variables entran en juego en la clasificación y cuál es el peso de cada una de ellas, se han realizado diferentes estudios. García de Ceca (2001) propone modelos de clasificación de piezas de corcho en plancha de 20 cm x 20 cm, elaborados con muestras procedentes de las principales regiones productoras de corcho a nivel global: Portugal, España y Marruecos En el presente estudio se lleva cabo la validación de los modelos propuestos por el citado autor, utilizando ahora piezas procedentes de las principales regiones productoras a nivel nacional (Andalucía, Extremadura y Cataluña), obtenidas en muestreos completamente independientes de los utilizados en la elaboración de los modelos. A la vista de los resultados obtenidos, se proponen medidas para la mejora y actualización de los modelos, atendiendo a criterios tecnológicos, normativos y científicos. Por último, se desarrolla un software para la clasificación de muestras de corcho por gestores y propietarios, al que se añade un breve manual metodológico. Los modelos de García de Ceca (2001) resultan aplicables para las procedencias españolas, obteniendo un 79,66% y un 75,39% de aciertos en la clasificación de piezas, para los modelos 2TC y 2TR respectivamente. Se han incluido modificaciones relativas a la presencia de mancha amarilla, los calibres demasiado delgados para la fabricación de tapones y la superficie ocupada por anomalías, consiguiendo elevar los resultados de acierto al 86,27% y 89,12%. Por último, se ha desarrollado una aplicación en Visual Basic® for Applications sobre Microsoft Excel® que permite la clasificación de corcho por personal no especializado, a partir de la metodología descrita en el manual.
Resumo:
Aunque esta no es la primera vez que nuevas compañías y tecnologías revolucionan la forma de entender una industria determinada, los modelos over-the-top (OTT) han provocado una explosión en el consumo de contenidos a través de internet, una revolución en la forma tradicional de comunicarse, de disfrutar de nuevas posibilidades de ocio digital y, por tanto, una transformación a la hora de entender los modelos de monetización de las compañías, actualmente buscando su lugar en la nueva cadena de valor. Ya no cabe duda de que este tipo de servicios se han hecho un hueco en la rutina diaria de las personas pero, a pesar de su rápida adopción y alta tasa de penetración, todo parece indicar que es sólo el comienzo de una nueva era, donde estos nuevos modelos disruptivos, están todavía por definirse. Tras unos años de cambios en el sector de las comunicaciones y entretenimiento digital, es ahora el del consumo audiovisual de entretenimiento el que se está viviendo sus debates más intensos. Este trabajo, presentado como proyecto final dentro del Máster de Consultoría en Gestión de Empresas fruto de la colaboración entre la UPM y la AEC, analiza en profundidad los cambios que está generando la adopción de soluciones de vídeo-OTT en el mercado a todos los niveles: cambios en los patrones de comportamiento de las personas, impactos en los sectores tradicionales (y su traducción en términos económicos y legales), evolución de la tecnología, etc. Todos estos aspectos se visitan haciendo especial hincapié en la cadena de valor y los nuevos modelos de negocio derivados de estas nuevas soluciones permitiendo monetizar estos cambios en un mercado complejo. Como complemento, se presenta un análisis de una de las soluciones líderes en el mercado, NETFLIX. Profundizar en un modelo de negocio de una compañía como esta permite analizar las estrategias seguidas y resultados obtenidos en función de la caracterización del mercado existente en cada momento, tomando notas para tener en cuenta en el planteamiento de modelos de negocio similares. Adicionalmente, en el apartado de recomendaciones para la cadena de valor, se establecen una serie de modelos de negocio que permitan enfrentar la aparición y crecimiento de los servicios OTT desde dos puntos de vista: diferenciación y participación de los mismos. Las aportaciones de valor presentadas, prestan especial atención también sobre las operadoras de telecomunicaciones, uno de los sectores más castigados por la entrada en el mercado de las soluciones de vídeo-OTT, junto con la televisión de pago. Por último, se utilizan todas las conclusiones extraídas de los anteriores apartados (que sirven como caracterización de entorno) para establecer un plan de negocio definiendo una propuesta que podría ser interesante desarrollar en el mercado español, carente actualmente de una solución líder que destaque, como ocurre en otros países. En base a este trabajo, se puede concluir que este tipo de servicios de vídeo-OTT presentan un potencial todavía por desarrollar y que conviene incluir en las estrategias de los próximos años de las compañías del sector, si éstas no quieren perder cuota de un mercado que sin duda evolucionará y revolucionará el mundo de la televisión tal y como existe actualmente.
Resumo:
La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.
Resumo:
Varios grupos de la Universidad Politécnica de Madrid se encuentran actualmente desarrollando un micro-satélite de experimentación bajo el proyecto UPMSat-2, sucesor de otro exitoso proyecto similar, el UPM-Sat 1. Bajo este marco la autora del presente documento ha llevado a cabo la realización de tres tareas fundamentales para hacer posible la puesta en órbita de dicho satélite. Las tareas principales definidas como alcance de este proyecto pretenden facilitar el uso de la memoria no volátil del computador de a bordo y comprobar el funcionamiento de todos los sistemas del satélite. Por ello se ha realizado el arranque desde la memoria no volátil junto con un manejador para el uso de la misma y un conjunto de pruebas de validación del software e integración del hardware. La satisfacción con los resultados obtenidos ha hecho posible la inclusión del software y pruebas desarrolladas al conjunto de todo el software del proyecto UPMSat-2, contribuyendo así a la capacidad del satélite para ser puesto en órbita.---ABSTRACT---UPMSat-2, the successor of UPM-Sat 1, is a joint project for the development of a micro-satellite for experimentation, which is being carried out by various research groups at Universidad Politécnica de Madrid. The author of this document has developed three main tasks to make possible the correct operation of this satellite during the duration of its mission. The scope of the present work is to enable the use of the on-board computer’s non-volatile memory and the development of a software to test that the satellite’s subsystems are working properly. To this end, the non-volatile memory’s boot sequence has been implemented together with the driver to use such memory, and a series of validation and integration tests for the software and the hardware. The results of the this work have been satisfactory, therefore they have been included in UPMSat-2’s software, contributing this way to the capacity of the satellite to carry out its mission.
Optimización de cimentaciones directas de medianería y esquina mediante modelos de elementos finitos
Resumo:
Existe un amplio catálogo de posibles soluciones para resolver la problemática de las zapatas de medianería así como, por extensión, las zapatas de esquina como caso particular de las anteriores. De ellas, las más habitualmente empleadas en estructuras de edificación son, por un lado, la utilización de una viga centradora que conecta la zapata de medianería con la zapata del pilar interior más próximo y, por otro, la colaboración de la viga de la primera planta trabajando como tirante. En la primera solución planteada, el equilibrio de la zapata de medianería y el centrado de la respuesta del terreno se consigue gracias a la colaboración del pilar interior con su cimentación y al trabajo a flexión de la viga centradora. La modelización clásica considera que se logra un centrado total de la reacción del terreno, con distribución uniforme de las tensiones de contacto bajo ambas zapatas. Este planteamiento presupone, por tanto, que la viga centradora logra evitar cualquier giro de la zapata de medianería y que el pilar puede, por ello, considerarse perfectamente empotrado en la cimentación. En este primer modelo, el protagonismo fundamental recae en la viga centradora, cuyo trabajo a flexión conduce frecuentemente a unas escuadrías y a unas cuantías de armado considerables. La segunda solución, plantea la colaboración de la viga de la primera planta, trabajando como tirante. De nuevo, los métodos convencionales suponen un éxito total en el mecanismo estabilizador del tirante, que logra evitar cualquier giro de la zapata de medianería, dando lugar a una distribución de tensiones también uniforme. Los modelos convencionales existentes para el cálculo de este tipo de cimentaciones presentan, por tanto, una serie de simplificaciones que permiten el cálculo de las mismas, por medios manuales, en un tiempo razonable, pero presentan el inconveniente de su posible alejamiento del comportamiento real de la cimentación, con las consecuencias negativas que ello puede suponer en el dimensionamiento de estos elementos estructurales. La presente tesis doctoral desarrolla un contraste de los modelos convencionales de cálculo de cimentaciones de medianería y esquina, mediante un análisis alternativo con modelos de elementos finitos, con el objetivo de poner de manifiesto las diferencias entre los resultados obtenidos con ambos tipos de modelización, analizar cuáles son las variables que más influyen en el comportamiento real de este tipo de cimentaciones y proponer un nuevo modelo de cálculo, de tipo convencional, más ajustado a la realidad. El proceso de investigación se desarrolla mediante una etapa experimental virtual que utiliza como modelo un pórtico tipo de edificación, ortogonal, de hormigón armado, con dos vanos y número variable de plantas. Tras identificar el posible giro de la cimentación como elemento clave en el comportamiento de las zapatas de medianería y de esquina, se adoptan como variables de estudio aquellas que mayor influencia puedan tener sobre el citado giro de las zapatas y sobre la rigidez del conjunto del elemento estructural. Así, se han estudiado luces de 3 m a 7 m, diferente número de plantas desde baja+1 hasta baja+4, resistencias del terreno desde 100 kN/m2 hasta 300 kN/m2, relaciones de forma de la zapata de medianería de 1,5 : 1 y 2 : 1, aumento y reducción de la cuantía de armado de la viga centradora y variación del canto de la viga centradora desde el mínimo canto compatible con el anclaje de la armadura de los pilares hasta un incremento del 75% respecto del citado canto mínimo. El conjunto de pórticos generados al aplicar las variables indicadas, se ha calculado tanto por métodos convencionales como por el método de los elementos finitos. Los resultados obtenidos ponen de manifiesto importantes discrepancias entre ambos métodos que conducen a importantes diferencias en el dimensionamiento de este tipo de cimentaciones. El empleo de los métodos tradicionales da lugar, por un lado, a un sobredimensionamiento de la armadura de la viga centradora y, por otro, a un infradimensionamiento, tanto del canto de la viga centradora, como del tamaño de la zapata de medianería y del armado de la viga de la primera planta. Finalizado el análisis y discusión de resultados, la tesis propone un nuevo método alternativo, de carácter convencional y, por tanto, aplicable a un cálculo manual en un tiempo razonable, que permite obtener los parámetros clave que regulan el comportamiento de las zapatas de medianería y esquina, conduciendo a un dimensionamiento más ajustado a las necesidades reales de este tipo de cimentación. There is a wide catalogue of possible solutions to solve the problem of party shoes and, by extension, corner shoes as a special case of the above. From all of them, the most commonly used in building structures are, on one hand, the use of a centering beam that connects the party shoe with the shoe of the nearest interior pillar and, on the other hand, the collaboration of the beam of the first floor working as a tie rod. In the first proposed solution, the balance of the party shoe and the centering of the ground response is achieved thanks to the collaboration of the interior pillar with his foundation along with the bending work of the centering beam. Classical modeling considers that a whole centering of the ground reaction is achieved, with uniform contact stress distribution under both shoes. This approach to the issue presupposes that the centering beam manages to avoid any rotation of the party shoe, so the pillar can be considered perfectly embedded in the foundation. In this first model, the leading role lies in the centering beam, whose bending work usually leads to important section sizes and high amounts of reinforced. The second solution, consideres the collaboration of the beam of the first floor, working as tie rod. Again, conventional methods involve a total success in the stabilizing mechanism of the tie rod, that manages to avoid any rotation of the party shoe, resulting in a stress distribution also uniform. Existing conventional models for calculating such foundations show, therefore, a series of simplifications which allow calculation of the same, by manual means, in a reasonable time, but have the disadvantage of the possible distance from the real behavior of the foundation, with the negative consequences this could bring in the dimensioning of these structural elements. The present thesis develops a contrast of conventional models of calculation of party and corner foundations by an alternative analysis with finite element models with the aim of bring to light the differences between the results obtained with both types of modeling, analysis which are the variables that influence the real behavior of this type of foundations and propose a new calculation model, conventional type, more adjusted to reality. The research process is developed through a virtual experimental stage using as a model a typical building frame, orthogonal, made of reinforced concrete, with two openings and variable number of floors. After identifying the possible spin of the foundation as the key element in the behavior of the party and corner shoes, it has been adopted as study variables, those that may have greater influence on the spin of the shoes and on the rigidity of the whole structural element. So, it have been studied lights from 3 m to 7 m, different number of floors from lower floor + 1 to lower floor + 4, máximum ground stresses from 100 kN/m2 300 kN/m2, shape relationships of party shoe 1,5:1 and 2:1, increase and decrease of the amount of reinforced of the centering beam and variation of the height of the centering beam from the minimum compatible with the anchoring of the reinforcement of pillars to an increase of 75% from the minimum quoted height. The set of frames generated by applying the indicated variables, is calculated both by conventional methods such as by the finite element method. The results show significant discrepancies between the two methods that lead to significant differences in the dimensioning of this type of foundation. The use of traditional methods results, on one hand, to an overdimensioning of the reinforced of the centering beam and, on the other hand, to an underdimensioning, both the height of the centering beam, such as the size of the party shoe and the reinforced of the beam of the first floor. After the analysis and discussion of results, the thesis proposes a new alternative method, conventional type and, therefore, applicable to a manual calculation in a reasonable time, that allows to obtain the key parameters that govern the behavior of party and corner shoes, leading to a dimensioning more adjusted to the real needings of this type of foundation.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
Los accidentes del tráfico son un fenómeno social muy relevantes y una de las principales causas de mortalidad en los países desarrollados. Para entender este fenómeno complejo se aplican modelos econométricos sofisticados tanto en la literatura académica como por las administraciones públicas. Esta tesis está dedicada al análisis de modelos macroscópicos para los accidentes del tráfico en España. El objetivo de esta tesis se puede dividir en dos bloques: a. Obtener una mejor comprensión del fenómeno de accidentes de trafico mediante la aplicación y comparación de dos modelos macroscópicos utilizados frecuentemente en este área: DRAG y UCM, con la aplicación a los accidentes con implicación de furgonetas en España durante el período 2000-2009. Los análisis se llevaron a cabo con enfoque frecuencista y mediante los programas TRIO, SAS y TRAMO/SEATS. b. La aplicación de modelos y la selección de las variables más relevantes, son temas actuales de investigación y en esta tesis se ha desarrollado y aplicado una metodología que pretende mejorar, mediante herramientas teóricas y prácticas, el entendimiento de selección y comparación de los modelos macroscópicos. Se han desarrollado metodologías tanto para selección como para comparación de modelos. La metodología de selección de modelos se ha aplicado a los accidentes mortales ocurridos en la red viaria en el período 2000-2011, y la propuesta metodológica de comparación de modelos macroscópicos se ha aplicado a la frecuencia y la severidad de los accidentes con implicación de furgonetas en el período 2000-2009. Como resultado de los desarrollos anteriores se resaltan las siguientes contribuciones: a. Profundización de los modelos a través de interpretación de las variables respuesta y poder de predicción de los modelos. El conocimiento sobre el comportamiento de los accidentes con implicación de furgonetas se ha ampliado en este proceso. bl. Desarrollo de una metodología para selección de variables relevantes para la explicación de la ocurrencia de accidentes de tráfico. Teniendo en cuenta los resultados de a) la propuesta metodológica se basa en los modelos DRAG, cuyos parámetros se han estimado con enfoque bayesiano y se han aplicado a los datos de accidentes mortales entre los años 2000-2011 en España. Esta metodología novedosa y original se ha comparado con modelos de regresión dinámica (DR), que son los modelos más comunes para el trabajo con procesos estocásticos. Los resultados son comparables, y con la nueva propuesta se realiza una aportación metodológica que optimiza el proceso de selección de modelos, con escaso coste computacional. b2. En la tesis se ha diseñado una metodología de comparación teórica entre los modelos competidores mediante la aplicación conjunta de simulación Monte Cario, diseño de experimentos y análisis de la varianza ANOVA. Los modelos competidores tienen diferentes estructuras, que afectan a la estimación de efectos de las variables explicativas. Teniendo en cuenta el estudio desarrollado en bl) este desarrollo tiene el propósito de determinar como interpretar la componente de tendencia estocástica que un modelo UCM modela explícitamente, a través de un modelo DRAG, que no tiene un método específico para modelar este elemento. Los resultados de este estudio son importantes para ver si la serie necesita ser diferenciada antes de modelar. b3. Se han desarrollado nuevos algoritmos para realizar los ejercicios metodológicos, implementados en diferentes programas como R, WinBUGS, y MATLAB. El cumplimiento de los objetivos de la tesis a través de los desarrollos antes enunciados se remarcan en las siguientes conclusiones: 1. El fenómeno de accidentes del tráfico se ha analizado mediante dos modelos macroscópicos. Los efectos de los factores de influencia son diferentes dependiendo de la metodología aplicada. Los resultados de predicción son similares aunque con ligera superioridad de la metodología DRAG. 2. La metodología para selección de variables y modelos proporciona resultados prácticos en cuanto a la explicación de los accidentes de tráfico. La predicción y la interpretación también se han mejorado mediante esta nueva metodología. 3. Se ha implementado una metodología para profundizar en el conocimiento de la relación entre las estimaciones de los efectos de dos modelos competidores como DRAG y UCM. Un aspecto muy importante en este tema es la interpretación de la tendencia mediante dos modelos diferentes de la que se ha obtenido información muy útil para los investigadores en el campo del modelado. Los resultados han proporcionado una ampliación satisfactoria del conocimiento en torno al proceso de modelado y comprensión de los accidentes con implicación de furgonetas y accidentes mortales totales en España. ABSTRACT Road accidents are a very relevant social phenomenon and one of the main causes of death in industrialized countries. Sophisticated econometric models are applied in academic work and by the administrations for a better understanding of this very complex phenomenon. This thesis is thus devoted to the analysis of macro models for road accidents with application to the Spanish case. The objectives of the thesis may be divided in two blocks: a. To achieve a better understanding of the road accident phenomenon by means of the application and comparison of two of the most frequently used macro modelings: DRAG (demand for road use, accidents and their gravity) and UCM (unobserved components model); the application was made to van involved accident data in Spain in the period 2000-2009. The analysis has been carried out within the frequentist framework and using available state of the art software, TRIO, SAS and TRAMO/SEATS. b. Concern on the application of the models and on the relevant input variables to be included in the model has driven the research to try to improve, by theoretical and practical means, the understanding on methodological choice and model selection procedures. The theoretical developments have been applied to fatal accidents during the period 2000-2011 and van-involved road accidents in 2000-2009. This has resulted in the following contributions: a. Insight on the models has been gained through interpretation of the effect of the input variables on the response and prediction accuracy of both models. The behavior of van-involved road accidents has been explained during this process. b1. Development of an input variable selection procedure, which is crucial for an efficient choice of the inputs. Following the results of a) the procedure uses the DRAG-like model. The estimation is carried out within the Bayesian framework. The procedure has been applied for the total road accident data in Spain in the period 2000-2011. The results of the model selection procedure are compared and validated through a dynamic regression model given that the original data has a stochastic trend. b2. A methodology for theoretical comparison between the two models through Monte Carlo simulation, computer experiment design and ANOVA. The models have a different structure and this affects the estimation of the effects of the input variables. The comparison is thus carried out in terms of the effect of the input variables on the response, which is in general different, and should be related. Considering the results of the study carried out in b1) this study tries to find out how a stochastic time trend will be captured in DRAG model, since there is no specific trend component in DRAG. Given the results of b1) the findings of this study are crucial in order to see if the estimation of data with stochastic component through DRAG will be valid or whether the data need a certain adjustment (typically differencing) prior to the estimation. The model comparison methodology was applied to the UCM and DRAG models, considering that, as mentioned above, the UCM has a specific trend term while DRAG does not. b3. New algorithms were developed for carrying out the methodological exercises. For this purpose different softwares, R, WinBUGs and MATLAB were used. These objectives and contributions have been resulted in the following findings: 1. The road accident phenomenon has been analyzed by means of two macro models: The effects of the influential input variables may be estimated through the models, but it has been observed that the estimates vary from one model to the other, although prediction accuracy is similar, with a slight superiority of the DRAG methodology. 2. The variable selection methodology provides very practical results, as far as the explanation of road accidents is concerned. Prediction accuracy and interpretability have been improved by means of a more efficient input variable and model selection procedure. 3. Insight has been gained on the relationship between the estimates of the effects using the two models. A very relevant issue here is the role of trend in both models, relevant recommendations for the analyst have resulted from here. The results have provided a very satisfactory insight into both modeling aspects and the understanding of both van-involved and total fatal accidents behavior in Spain.
Resumo:
Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.
Resumo:
En el campo de la ingeniería estructural como en otras ramas, es necesaria la calibración de modelos mediante soporte experimental debido a la complejidad que encierra el fenómeno que se intenta predecir. Las campañas experimentales llevadas a cabo por la comunidad científica a través de los años proporcionan información valiosa que puede ser empleada para la calibración y selección de modelos así como para la consolidación de modelos existentes. En el último caso, las técnicas empleadas para tal finalidad son fundamentalmente distintas a las de la selección de modelos (modelos ajustados con información experimental en común). Los códigos estructurales incluyen modelos de muy variado tipo que han ido consolidándose con la práctica. Con gran frecuencia sucede que tales modelos son diferentes en los referidos códigos aun cuando aborden el mismo objetivo. Tales diferencias son lógicas pues esos modelos no deben entenderse sino como elementos de un sistema más amplio de fiabilidad estructural que incluye todos los modelos utilizados así como el formato de seguridad establecido en cada uno de ellos. En el presente trabajo se realiza una comparación exhaustiva de modelos, empleando diferentes técnicas que permiten identificar patrones de comportamiento de los mismos. La metodología permite no sólo obtener una medida del ajuste y del poder predictivo de los modelos sino también del grado de conservadurismo. Los modelos analizados están relacionados con el fallo de vigas de hormigón reforzadas a flexión con materiales compuestos. La capacidad portante de estos elementos estructurales está frecuentemente condicionada por el despegue del refuerzo, el cual puede tener origen bien el extremo o en la zona de fisura de flexión o flexión-cortante.
Resumo:
En el capítulo dedicado a la calidad de la estación, como primera etapa se realiza una exhaustiva revisión bibliográfica a partir de la cual se comprueba que los métodos más precisos para determinar esta calidad, en términos generales, son aquellos basados en la relación de la altura con la edad. En base a los datos que se encuentran disponibles y como fruto de esta revisión bibliográfica, se decide probar tres métodos: uno de ellos que estudia la evolución de la altura en función del diámetro (MEYER) y los otros dos en función de la edad (BAILEY y CLUTTER y GARCÍA). Para probar estos métodos, se utilizan datos de parcelas de producción distribuidas en los tres principales sistemas montañosos de España: Ibérico, Central y Pirenaico. El modelo de MEYER implica una clasificación previa de las parcelas en función de su clase de sitio y los ajustes se realizan para cada clase, con lo que se obtienen cuatro curvas polimórficas. La ecuación que describe este modelo es: H = 1.3 + s(1-e-bD) El modelo de BAILEY y CLUTTER genera también un sistema de curvas polimórficas y se genera a partir de la relación entre el 1og de la altura y la inversa de la edad: log H = a + b¡(1/AC) Este método implica una agrupación o estratificación de las parcelas en clases de sitio. Por último, se prueba el modelo de GARCÍA que se basa en una ecuación diferencial estocástica: dHc(t) = b(ac-Hc(t)) + a(t)dw(t) y se prueba la siguiente estructura paramétrica: a b c °"0 o *o H0 global 1 oca 1 g1obal 0.00 global 0.00 0.0 Posteriormente se hace un análisis de los residuos en que se aplica la prueba de Durbin-Watson que detecta la presencia de correlación serial. Se verifica la forma aproximada a un "cometa" en los residuos, lo que es frecuente en series de tiempo cuando la magnitud analizada (en nuestro caso, la altura dominante) se acumula en el tiempo. Esta prueba no es concluyente en el sentido de que no aclara que modelo es el más apropiado. Finalmente, se validan estos modelos utilizando datos de las parcelas de clara. Para esto se utiliza información de arboles tipo sometidos a análisis de tronco. Esta validación permite concluir que el modelo de GARCÍA es el que mejor explica la evolución del crecimiento en altura. En el capítulo dedicado a las distribuciones diamétricas, se pretende modelizar dichas distribuciones a través de variables de estado. Para esto, como primera etapa, se prueban para 45 parcelas y tres inventarios, las siguientes funciones: - Normal - Gamma - Ln de dos parámetros - Ln de tres parámetros - Beta I I - Wei bul 1 Mediante el uso de chi-cuadrado como estimador de la bondad del ajuste, se determina que la función de Weibull es la que mejor responde a la distribución diamétrica de nuestras parcelas. Posteriormente, se comprueba la bondad de dicho ajuste, mediante la prueba de Kolmogorov-Smirnov, el que determina que en el 99X de los casos, el ajuste es aceptable. Luego se procede a la recuperación de 1 os*parámetros de la función de Weibull; a, b y c. En esta etapa se estratifica la información y se realizan análisis de varianza (ANOVA) y pruebas de medias de TUKEY que dan como resultado el que se continúe trabajando por tratamiento y por inventario quedando la diferencia entre sitios absorbida por la altura dominante. Para la recuperación de los parámetros, se utilizan las variables de estado que definen a nuestras parcelas; edad, densidad, altura dominante, diámetro medio cuadrático y área basimétrica. El método seguido es la obtención de ecuaciones de regresión con las variables de estado como independientes para predecir los valores de los parámetros antes mencionados. Las ecuaciones se obtienen utilizando distintas vías (STEPWISE, ENTER y RSQUARE) lo que nos proporciona abundante material para efectuar la selección de éstas. La selección de las mejores ecuaciones se hace en base a dos estadísticos conocidos: - Coeficiente de determinación ajustado: R2 a - Cp de MALLOWS Estos elementos se tratan en forma conjunta considerando, además, que el número de parámetros esté en concordancia con el número de datos. El proceso de selección implica que se obtengan 36 ecuaciones de regresión que posteriormente se validan en dos sentidos. Por una parte, se calcula el valor de cada parámetro según la ecuación que le corresponda y se compara con el valor de los parámetros calculados en el ajuste de Weibull. Lo que se puede deducir de esta etapa es que la distorsión que sufren los parámetros al efectuar ecuaciones de regresión, es relativamente baja y la diferencia se produce debido a errores que se originan al realizar los modelos. Por otra parte, con las parcelas que se encuentren disponibles, se valida el modelo en el sentido de hacer el proceso inverso al anterior, es decir a partir de sus variables de estado, fácilmente medibles, se obtienen los valores de los parámetros que definen a la función de Weibull. Con esto se reconstruye la distribución diamétrica de cada función. Los resultados que se obtienen de esto indican que los ajustes son aceptables a un nivel del 1X en el caso de tres parcelas.
Resumo:
Los modelos de desarrollo regional, rural y urbano arrancaron en la década de los 90 en Estados Unidos, modelando los factores relacionados con la economía que suministran información y conocimiento acerca de cómo los parámetros geográficos y otros externos influencian la economía regional. El desarrollo regional y en particular el rural han seguido diferentes caminos en Europa y España, adoptando como modelo los programas estructurales de la UE ligados a la PAC. El Programa para el Desarrollo Rural Sostenible, recientemente lanzado por el Gobierno de España (2010) no profundiza en los modelos económicos de esta economía y sus causas. Este estudio pretende encontrar pautas de comportamiento de las variables de la economía regional-rural, y como el efecto de distribución geográfica de la población condiciona la actividad económica. Para este propósito, y utilizando datos espaciales y económicos de las regiones, se implementaran modelos espaciales que permitan evaluar el comportamiento económico, y verificar hipótesis de trabajo sobre la geografía y la economía del territorio. Se utilizarán modelos de análisis espacial como el análisis exploratorio espacial y los modelos econométricos de ecuaciones simultáneas, y dentro de estas los modelos ampliamente utilizados en estudios regionales de Carlino-Mills- Boarnet. ABSTRACT The regional development models for rural and urban areas started in USA in the ´90s, modeling the economy and the factors involved to understand and collect the knowledge of how the external parameters influenced the regional economy. Regional development and in particular rural development has followed different paths in Europe and Spain, adopting structural programs defined in the EU Agriculture Common Policy. The program for Sustainable Rural Development recently implemented in Spain (2010) is short sighted considering the effects of the regional economy. This study endeavors to underline models of behavior for the rural and regional economy variables, and how the regional distribution of population conditions the economic activities. For that purpose using current spatial regional economic data, this study will implement spatial economic models to evaluate the behavior of the regional economy, including the evaluation of working hypothesis about geography and economy in the territory. The approach will use data analysis models, like exploratory spatial data analysis, and spatial econometric models, and in particular for its wide acceptance in regional analysis, the Carlino-Mills-Boarnet equations model.