503 resultados para Estación Pringles
Resumo:
En la cuenca del Plata, durante las últimas dos décadas del siglo XX, se desarrollaron importantes inundaciones producto de los cambios ocurridos en el sistema climático global y, como el área del Gran La Plata (partidos de Berisso, Ensenada y La Plata) no escapa a este problema, se ha tomado como caso para nuestra investigación. Se analiza la distribución temporal de las precipitaciones en la ciudad de La Plata (provincia de Buenos Aires, Argentina), para el período comprendido entre las últimas décadas del siglo XX y la actualidad. En el Gran La Plata el problema de las inundaciones es resultado de la confluencia de tres factores: las precipitaciones (sobre todo cuando se producen con gran intensidad), las napas freáticas que han aumentado su presión hacia arriba por haberse elevado y la sudestada que provoca la crecida de los ríos. El estudio se realizó considerando los valores diarios de precipitación disponibles para la localidad, brindados por estación meteorológica La Plata Aero, dependiente del Servicio Meteorológico Nacional, y los datos de inundaciones obtenidos del diario "El Día", de circulación local. La variación temporal se estudió a escala anual y mensual, detectándose cambios en monto e intensidad que, además de responder al incremento de las precipitaciones acaecido en la pradera pampeana en las últimas décadas, son una llamada de atención para la planificación de futuros emprendimientos en la ciudad y toma de decisiones en el caso de eventos hidrológicos extremos, como es el caso de las inundaciones. En los resultados de este análisis se observó que las inundaciones en la década 1971 - 1980 fueron 25, y que se incrementaron a 78 en la última década estudiada (1991-2000).
Resumo:
Este trabajo tiene por objeto un primer acercamiento al estudio del comercio rural en la campaña bonaerense en las primeras décadas del siglo XX. Partimos de un análisis previo de la historiografía existente sobre comercio y comerciantes, así como de los principales conceptos y categorías que nos permiten comenzar a pensar el problema. Por último, presentamos algunos avances de nuestra investigación centrada en un estudio de caso, la casa de comercio "El Progreso" (propiedad de José y Francisco Vulcano) ubicada en la estación Gardey (Partido de Tandil), especialmente algunas reflexiones sobre la constitución de su espacio comercial, y algunos rasgos de la relación comerciante/cliente en el período estudiado (1922-1934).
Resumo:
Este trabajo tiene por objeto un primer acercamiento al estudio del comercio rural en la campaña bonaerense en las primeras décadas del siglo XX. Partimos de un análisis previo de la historiografía existente sobre comercio y comerciantes, así como de los principales conceptos y categorías que nos permiten comenzar a pensar el problema. Por último, presentamos algunos avances de nuestra investigación centrada en un estudio de caso, la casa de comercio "El Progreso" (propiedad de José y Francisco Vulcano) ubicada en la estación Gardey (Partido de Tandil), especialmente algunas reflexiones sobre la constitución de su espacio comercial, y algunos rasgos de la relación comerciante/cliente en el período estudiado (1922-1934).
Resumo:
En la cuenca del Plata, durante las últimas dos décadas del siglo XX, se desarrollaron importantes inundaciones producto de los cambios ocurridos en el sistema climático global y, como el área del Gran La Plata (partidos de Berisso, Ensenada y La Plata) no escapa a este problema, se ha tomado como caso para nuestra investigación. Se analiza la distribución temporal de las precipitaciones en la ciudad de La Plata (provincia de Buenos Aires, Argentina), para el período comprendido entre las últimas décadas del siglo XX y la actualidad. En el Gran La Plata el problema de las inundaciones es resultado de la confluencia de tres factores: las precipitaciones (sobre todo cuando se producen con gran intensidad), las napas freáticas que han aumentado su presión hacia arriba por haberse elevado y la sudestada que provoca la crecida de los ríos. El estudio se realizó considerando los valores diarios de precipitación disponibles para la localidad, brindados por estación meteorológica La Plata Aero, dependiente del Servicio Meteorológico Nacional, y los datos de inundaciones obtenidos del diario "El Día", de circulación local. La variación temporal se estudió a escala anual y mensual, detectándose cambios en monto e intensidad que, además de responder al incremento de las precipitaciones acaecido en la pradera pampeana en las últimas décadas, son una llamada de atención para la planificación de futuros emprendimientos en la ciudad y toma de decisiones en el caso de eventos hidrológicos extremos, como es el caso de las inundaciones. En los resultados de este análisis se observó que las inundaciones en la década 1971 - 1980 fueron 25, y que se incrementaron a 78 en la última década estudiada (1991-2000).
Resumo:
En los últimos años se han desarrollado una amplia variedad de herramientas educativas para la docencia. En especial, los laboratorios virtuales y remotos, como medios de educación, se van imponiendo en varios campos de la docencia. La teoría de control no está ajena a este desarrollo y son cada día más las universidades que implementan estas herramientas con el objetivo de optimizar sus recursos. Por ello, en esta tesis, se realiza un análisis de varias de las plataformas de laboratorios virtuales y remotos actuales. Este estudio sirvió de base para la implementación del Sistema de Laboratorios a Distancia (SLD). El Sistema de Laboratorios a Distancia tiene como ventajas fundamentales la independencia entre las estaciones de trabajo y el servidor, lo que permite que se puedan compartir recursos entre lugares distantes, a través de Internet. Además, la posibilidad de tener más de una estación de trabajo, con la misma práctica, controladas por el mismo servidor, lo que le brinda un mayor paralelismo. Por último, mencionar el hecho de permitir la realización de prácticas en tiempo real. En esta tesis se detalla la implementación de las prácticas remotas para el Sistema de Laboratorios a Distancia usadas en la asignatura de Regulación Automática durante los cursos 2008-2009 al 2010-2011. Estas prácticas fueron utilizadas, además de para las actividades prácticas de laboratorio, en el desarrollo de un proyecto de control, actividad ejecutada por los alumnos con un alto valor formativo. También se describen los trabajos prácticos desarrollados en el curso mediante el uso de AulaWeb. Se propone una metodología que se nutre de los resultados de cada curso con vistas a su mejoramiento. La realización de prácticas de forma presencial y remota permite combinar las ventajas de ambos métodos. La realización presencial de prácticas en el laboratorio tiene un gran valor formativo para los alumnos, permitiéndole conocer y manipular los equipos físicos con los que trabaja. Una vez que el alumno está familiarizado con los sistemas que utiliza puede trabajar con ellos a distancia, con las ventajas que ello conlleva de puesta a punto de los equipos y optimización de los recursos. El tiempo efectivo de uso de los sistemas físicos suele ser reducido, ya que la programación y captura de datos suele requerir entre 10 y 20 minutos. La realización de trabajos a distancia ahorra tiempo para el alumno a la vez que favorece el uso compartido de recursos. Otro aspecto de interés que surge al realizar actividades remotas es que no se limita el tiempo de utilización de los equipos, los alumnos pueden manipularlos sin restricciones de tiempo hasta que consideren que han alcanzado los objetivos deseados. La metodología aplicada permite la adquisición de competencias en los alumnos, específicamente las competencias para diseñar y ejecutar experimentos de control; así como analizar críticamente sus resultados. Todo desde un punto de vista de trabajo en equipo, y de forma colaborativa haciendo uso de las herramientas educativas AulaWeb y el Sistema de Laboratorios a Distancia (SLD) para la implementación de los experimentos remotos sobre equipos reales. Esta tesis se ajusta y da respuesta a los objetivos definidos como prioritarios por la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid en sus líneas de prioritarias para la Innovación Educativa. De igual forma cumple con el modelo educativo de la Universidad Politécnica de Madrid (Plan de eficiencia educativa), así como con las recomendaciones sobre competencias del Consejo de Acreditación de Ingeniería y Tecnología (Accreditation Board for Engineering and Technology, ABET). Se analizan los datos recogidos mediante la observación participante, las encuestas y las entrevistas grupales por cada curso académico en los que se realizó la investigación, y se proponen los cambios y mejoras para el próximo período académico. De igual forma se exponen los resultados de los alumnos en los tres cursos que duró la investigación. Esta investigación se ha desarrollado en el marco de dos proyectos de Innovación Educativa financiados por la Universidad Politécnica de Madrid. Además, ha formado parte del Programa de Cooperación Universitaria Institucional (IUC) de la Universidad Central “Marta Abreu” de Las Villas (UCLV) con el Consejo de Universidades Flamencas (VLIR).
Resumo:
La dehesa es el sistema agroforestal español más conocido y estudiado; hoy en día está protegido por la Directiva Hábitats 43/92/CEE (6310-Dehesas perennifolias de Quercus ssp.) e incluida en la red Natura 2000. El objetivo de este trabajo es analizar la contribución del arbolado a la producción y diversidad de los pastos herbáceos en la dehesa del centro peninsular. El trabajo se ha desarrollado en la finca “El Dehesón del Encinar” (Término Municipal de Oropesa, provincia de Toledo), en una parcela de 5 ha representativa de la dehesa tipo en la zona. Se muestrearon marcos de 50 x 50 cm de lado considerando dos posiciones bajo copa según la proximidad del tronco (1/2 radio y en el borde) en cuatro orientaciones: Norte, Sur, Este y Oeste, en 12 encinas en distintas localizaciones dentro de la parcela. Para cada marco de muestreo se estudió la composición florística completa de los pastos herbáceos y la contribución de cada especie a la producción en materia seca. Se utilizó un modelo GLM para ver la relación entre la riqueza específica y otras variables (producción, calidad de estación y situación bajo copa). La diversidad beta fue medida mediante el índice de Whittaker, comparando las comunidades herbáceas en las distintas situaciones presentes. En la zona de estudio encontramos que la calidad de los pastos herbáceos está íntimamente relacionada con la riqueza específica a través de la abundancia de leguminosas. Los valores superiores de riqueza se encontraron en los bordes de las copas del arbolado así como en encinas situadas en las zonas más ricas en leguminosas de la parcela general. Con respecto a la diversidad beta, no existen diferencias notables entre las comunidades de pastos herbáceos bajo las distintas encinas estudiadas; las localizaciones de la parcela con mayor riqueza específica y producción de leguminosas también muestran mayores diferencias (índices de Whittaker superiores) en la comparación de comunidades a distintas distancias del fuste (>50% de especies distintas). Constatamos y cuantificamos la importancia del estrato arbóreo en la producción y diversidad de los pastos herbáceos de la dehesa
Resumo:
En este trabajo se realiza una sucinta recopilación de los últimos avances en la investigación aplicada al control del bitter pit en la Estación Experimental de Aula Dei (EEAD-CSIC). Se describen nuevas formulaciones y estrategias de aplicación foliar con calcio, un método físico postcosecha y el método de tinción selectiva de calcio en fruto
Resumo:
Este trabajo presenta los resultados de la campaña de riego 2010 realizada en la finca Villavieja, ubicada en Tordesillas (Valladolid) y perteneciente a la asociación para la investigación y la mejora del cultivo de remolacha azucarera (AIMCRA). El objetivo general es determinar el tiempo y frecuencia de riego óptimos, para mejorar así la eficiencia del riego y reducir el coste de los agricultores. Para ello se considera el manejo del riego tradicional que aplica el regante de la zona al cultivo de remolacha azucarera y se mide el contenido de humedad en puntos determinados de la finca y la distribución del agua en el suelo, a partir de esas medidas. Además, se realizaron varias evaluaciones de las unidades de riego a lo largo de la campaña. Un sensor de frecuencia FDR (EnviroScan) se utilizó para medir el contenido de humedad en un perfil de suelo de la finca. Previamente se determinó la textura del suelo. Los regantes de la zona conocían, con cierta aproximación, las necesidades hídricas semanales del cultivo, a partir de la información de la evapotranspiración semanal de la remolacha, recibida vía mensajes cortos de texto de telefonía móvil (SMS). Ésta se determinada a partir de las estación meteorológicas más cercanas (pertenecientes a la red de Inforiego) y de la red de tanques de evaporación repartidos por las diferentes zonas. Sin embargo, y debido a la necesidad de reducir costes, muchos regantes no se ajustan a dichas necesidades y aplican un calendario de riego ajustándose a la tarifa eléctrica mínima . Esta situación puede provocar estrés hídrico, durante algunos días de la campaña y, como consecuencia, riegos excesivamente largos que intentan compensar el estrés acumulado. Los suelos, principalmente arenosos mostraron valores altos de la infiltración; el tiempo medio de riego, de unas 6 horas, llegó incluso a duplicar el necesario para la saturación de los primeros 60 cm de suelo. Además, la frecuencia de riego no fue siempre la adecuada y, en varias ocasiones, se observaron visualmente síntomas de estrés hídrico en el cultivo.
Resumo:
En la estación de radiación solar e iluminación de alta calidad del International Daylight Measurement Program (IDMP) en Madrid ubicada en la terraza norte de la E.T.S. de Arquitectura de la Universidad Politécnica de Madrid (40º 25’ N, 3º 41’ W) se está realizando un estudio conjunto entre profesores de la ETSAM y de la EUATM sobre la iluminación natural en la Edificación. Desde hace más de un año, se están midiendo iluminancias globales en superficies horizontales, en superficies verticales con las cuatro orientaciones (N, S, E y O) y en superficies inclinadas con distintos ángulos de inclinación mediante un domo semiesférico sobre el que se colocan los sensores fotométricos. Todas estas medidas para los tres tipos de cielo (despejado, parcialmente cubierto y cubierto). También se ha construido un modelo a escala de un local de la ETSAM con la finalidad de medir la iluminación natural simultáneamente en el local y en el modelo reducido. Una vez conocida la viabilidad del modelo se ha estudiado la iluminación natural que tendría dicho local, orientado al norte en la realidad, si estuviese orientado hacia el Sur, el Este o el Oeste. Con todo esto se han realizado varios trabajos de fin de máster del Máster en Técnicas y Sistemas de Edificación de la EUATM y se continúan realizando otros.
Resumo:
La riqueza de propiedades y posibilidades de movimiento que se derivan de la columna vertebral tomadas en su conjunto son las causas que me han estimulado, para intentar buscar más respuestas, a todas mis actuales incógnitas, que en este presente trabajo pretendo contestar, con los medios de que dispongo, y en la medida que mejor pueda. La tarea, sé de antemano que no es fácil, y no menos corta, debida a la aparente complejidad, pero creo que apoyándome en una apropiada metodología, y centrándome, única y exclusivamente en los puntos que me interesan, puedo lograr los pasos que me lleven a los objetivos finales que persigo. Después de recopilar todos los datos posibles de anatomía, que hacían referencia al raquis, me llevó un cierto tiempo, hasta llegar al ordenamiento de todas las ideas que había adquirido. Esto me hizo llegar a la conclusión de que el planteamiento más adecuado, sería, por un lado un estudio anatómico desde un punto de vista descriptivo de las diferentes partes y elementos que constituyen el eje del cuerpo, para por otro lado y posteriormente, entender mejor las distintas propiedades y funciones mecánicas de este eje raquídeo. Para realizar este trabajo hemos consultado y estudiado numerosas publicaciones de autores, anatomistas prestigiosos tanto clásicos como modernos, tratando de condensar sus teorías o sus exposiciones, que hacen referencia al tema elegido. Todo cuanto queda resumido creemos que contiene interés para cualquier profesor de Educación Física y Deportes. Mi intención no ha sido nunca sacar unas conclusiones prácticas nuevas no descubiertas; y si el de haber empleado un medio o camino a seguir que yo creo conveniente aplicarlo para obtener los datos que persigo, de este raquis tomado en conjunto. Precisamente por este enfoque de abordar el tema en conjunto, he tenido que hacer continuas citas entre los diferentes puntos del sumario,puesto que es muy difícil separar los diferentes aspectos o puntos tomados en cada apartado debido a su constante interrelación. El principal aspecto de la columna vertebral que estudiaremos es su increíble y contradictoria, doble función estótico-dinámica. Intentaremos pues en el contenido de este trabajo, adentrarnos lo más posible en el estudio de esta doble función para su mejor comprensión. Con el deseo de exponer el tema de una manera lo más racional posible, he dividido el estudio en seis capítulos. El primero en el que nos encontramos, es una breve introducción y visión en conjunto del tema. En el segundo hago una síntesis de la formación y del desarrollo de la columna vertebral, que creo de sumo interés debido a su tardío y largo proceso de osificación y formación. En el tercer capítulo realizo una descripción anatómica de todo el raquis que creo de absoluta necesidad para la comprensión de los siguientes apartados. Posteriormente se describe el raquis en conjunto, , funciones, curvaturas, movilidad, así como un breve análisis de movimientos. El quinto capítulo estudia la postura muy atrayente a mi modo de ver, derivada de la evolución de la estación bípeda, asi como algunas consideraciones muy generales de las lesiones de columna debido a su numerosa, cuantía, y por último, hago una síntesis general asi como unas conclusiones finales. Para finalizar quiero manifestar mi profundo agradecimiento al Profesor de Anatomía Dr. Anitua Solano por su entera ayuda, sin su dirección no hubiera sido posible la realización de este trabajo.
Resumo:
Con el fin de establecer una cartografía europea unificada, se hace indispensable la conversión de las coordenadas de los Marcos de los Sistemas Geodésicos Nacionales al Marco ETRF89, lo cual sólo es posible a través de la determinación de tansformaciones y superficies de ajuste desde uno a otro marco. Tal determinación requiere el conocimiento de ambas clases de coordenadas en un número muy elevado de estaciones uniformemente distribuidas, debiendo este número ser tanto mayor cuantas mas irregularidades presente el Marco local. En el caso de la Península y Archipiélagos, el IGN decidió resolver el problema mediante el Proyecto REGENTE (Red Geodésica Nacional por Técnicas Espaciales), consistente en el establecimiento de una densa red GPS de alta precisión con estaciones coincidentes con vértices de ROI y con clavos de lineas NAP. La densidad media quedó fijada en una estación por Hoja del MTN escala 1:50.000, es decir, de una estación por cada 300 km2. REGENTE quedará perfectamente enlazada con la red de referencia europea ETRF89 por medio de las redes ibéricas IBERIA95 y BALEAR98. REGENTE Canarias se apoya, como estación de referencia, en la estación GPS de Maspalomas, incluida en la red ITRF93.
Resumo:
Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.
Resumo:
En el capítulo dedicado a la calidad de la estación, como primera etapa se realiza una exhaustiva revisión bibliográfica a partir de la cual se comprueba que los métodos más precisos para determinar esta calidad, en términos generales, son aquellos basados en la relación de la altura con la edad. En base a los datos que se encuentran disponibles y como fruto de esta revisión bibliográfica, se decide probar tres métodos: uno de ellos que estudia la evolución de la altura en función del diámetro (MEYER) y los otros dos en función de la edad (BAILEY y CLUTTER y GARCÍA). Para probar estos métodos, se utilizan datos de parcelas de producción distribuidas en los tres principales sistemas montañosos de España: Ibérico, Central y Pirenaico. El modelo de MEYER implica una clasificación previa de las parcelas en función de su clase de sitio y los ajustes se realizan para cada clase, con lo que se obtienen cuatro curvas polimórficas. La ecuación que describe este modelo es: H = 1.3 + s(1-e-bD) El modelo de BAILEY y CLUTTER genera también un sistema de curvas polimórficas y se genera a partir de la relación entre el 1og de la altura y la inversa de la edad: log H = a + b¡(1/AC) Este método implica una agrupación o estratificación de las parcelas en clases de sitio. Por último, se prueba el modelo de GARCÍA que se basa en una ecuación diferencial estocástica: dHc(t) = b(ac-Hc(t)) + a(t)dw(t) y se prueba la siguiente estructura paramétrica: a b c °"0 o *o H0 global 1 oca 1 g1obal 0.00 global 0.00 0.0 Posteriormente se hace un análisis de los residuos en que se aplica la prueba de Durbin-Watson que detecta la presencia de correlación serial. Se verifica la forma aproximada a un "cometa" en los residuos, lo que es frecuente en series de tiempo cuando la magnitud analizada (en nuestro caso, la altura dominante) se acumula en el tiempo. Esta prueba no es concluyente en el sentido de que no aclara que modelo es el más apropiado. Finalmente, se validan estos modelos utilizando datos de las parcelas de clara. Para esto se utiliza información de arboles tipo sometidos a análisis de tronco. Esta validación permite concluir que el modelo de GARCÍA es el que mejor explica la evolución del crecimiento en altura. En el capítulo dedicado a las distribuciones diamétricas, se pretende modelizar dichas distribuciones a través de variables de estado. Para esto, como primera etapa, se prueban para 45 parcelas y tres inventarios, las siguientes funciones: - Normal - Gamma - Ln de dos parámetros - Ln de tres parámetros - Beta I I - Wei bul 1 Mediante el uso de chi-cuadrado como estimador de la bondad del ajuste, se determina que la función de Weibull es la que mejor responde a la distribución diamétrica de nuestras parcelas. Posteriormente, se comprueba la bondad de dicho ajuste, mediante la prueba de Kolmogorov-Smirnov, el que determina que en el 99X de los casos, el ajuste es aceptable. Luego se procede a la recuperación de 1 os*parámetros de la función de Weibull; a, b y c. En esta etapa se estratifica la información y se realizan análisis de varianza (ANOVA) y pruebas de medias de TUKEY que dan como resultado el que se continúe trabajando por tratamiento y por inventario quedando la diferencia entre sitios absorbida por la altura dominante. Para la recuperación de los parámetros, se utilizan las variables de estado que definen a nuestras parcelas; edad, densidad, altura dominante, diámetro medio cuadrático y área basimétrica. El método seguido es la obtención de ecuaciones de regresión con las variables de estado como independientes para predecir los valores de los parámetros antes mencionados. Las ecuaciones se obtienen utilizando distintas vías (STEPWISE, ENTER y RSQUARE) lo que nos proporciona abundante material para efectuar la selección de éstas. La selección de las mejores ecuaciones se hace en base a dos estadísticos conocidos: - Coeficiente de determinación ajustado: R2 a - Cp de MALLOWS Estos elementos se tratan en forma conjunta considerando, además, que el número de parámetros esté en concordancia con el número de datos. El proceso de selección implica que se obtengan 36 ecuaciones de regresión que posteriormente se validan en dos sentidos. Por una parte, se calcula el valor de cada parámetro según la ecuación que le corresponda y se compara con el valor de los parámetros calculados en el ajuste de Weibull. Lo que se puede deducir de esta etapa es que la distorsión que sufren los parámetros al efectuar ecuaciones de regresión, es relativamente baja y la diferencia se produce debido a errores que se originan al realizar los modelos. Por otra parte, con las parcelas que se encuentren disponibles, se valida el modelo en el sentido de hacer el proceso inverso al anterior, es decir a partir de sus variables de estado, fácilmente medibles, se obtienen los valores de los parámetros que definen a la función de Weibull. Con esto se reconstruye la distribución diamétrica de cada función. Los resultados que se obtienen de esto indican que los ajustes son aceptables a un nivel del 1X en el caso de tres parcelas.
Resumo:
After the extraordinary spread of the World Wide Web during the last fifteen years, engineers and developers are pushing now the Internet to its next border. A new conception in computer science and networks communication has been burgeoning during roughly the last decade: a world where most of the computers of the future will be extremely downsized, to the point that they will look like dust at its most advanced prototypes. In this vision, every single element of our “real” world has an intelligent tag that carries all their relevant data, effectively mapping the “real” world into a “virtual” one, where all the electronically augmented objects are present, can interact among them and influence with their behaviour that of the other objects, or even the behaviour of a final human user. This is the vision of the Internet of the Future, which also draws ideas of several novel tendencies in computer science and networking, as pervasive computing and the Internet of Things. As it has happened before, materializing a new paradigm that changes the way entities interrelate in this new environment has proved to be a goal full of challenges in the way. Right now the situation is exciting, with a plethora of new developments, proposals and models sprouting every time, often in an uncoordinated, decentralised manner away from any standardization, resembling somehow the status quo of the first developments of advanced computer networking, back in the 60s and the 70s. Usually, a system designed after the Internet of the Future will consist of one or several final user devices attached to these final users, a network –often a Wireless Sensor Network- charged with the task of collecting data for the final user devices, and sometimes a base station sending the data for its further processing to less hardware-constrained computers. When implementing a system designed with the Internet of the Future as a pattern, issues, and more specifically, limitations, that must be faced are numerous: lack of standards for platforms and protocols, processing bottlenecks, low battery lifetime, etc. One of the main objectives of this project is presenting a functional model of how a system based on the paradigms linked to the Internet of the Future works, overcoming some of the difficulties that can be expected and showing a model for a middleware architecture specifically designed for a pervasive, ubiquitous system. This Final Degree Dissertation is divided into several parts. Beginning with an Introduction to the main topics and concepts of this new model, a State of the Art is offered so as to provide a technological background. After that, an example of a semantic and service-oriented middleware is shown; later, a system built by means of this semantic and service-oriented middleware, and other components, is developed, justifying its placement in a particular scenario, describing it and analysing the data obtained from it. Finally, the conclusions inferred from this system and future works that would be good to be tackled are mentioned as well. RESUMEN Tras el extraordinario desarrollo de la Web durante los últimos quince años, ingenieros y desarrolladores empujan Internet hacia su siguiente frontera. Una nueva concepción en la computación y la comunicación a través de las redes ha estado floreciendo durante la última década; un mundo donde la mayoría de los ordenadores del futuro serán extremadamente reducidas de tamaño, hasta el punto que parecerán polvo en sus más avanzado prototipos. En esta visión, cada uno de los elementos de nuestro mundo “real” tiene una etiqueta inteligente que porta sus datos relevantes, mapeando de manera efectiva el mundo “real” en uno “virtual”, donde todos los objetos electrónicamente aumentados están presentes, pueden interactuar entre ellos e influenciar con su comportamiento el de los otros, o incluso el comportamiento del usuario final humano. Ésta es la visión del Internet del Futuro, que también toma ideas de varias tendencias nuevas en las ciencias de la computación y las redes de ordenadores, como la computación omnipresente y el Internet de las Cosas. Como ha sucedido antes, materializar un nuevo paradigma que cambia la manera en que las entidades se interrelacionan en este nuevo entorno ha demostrado ser una meta llena de retos en el camino. Ahora mismo la situación es emocionante, con una plétora de nuevos desarrollos, propuestas y modelos brotando todo el rato, a menudo de una manera descoordinada y descentralizada lejos de cualquier estandarización, recordando de alguna manera el estado de cosas de los primeros desarrollos de redes de ordenadores avanzadas, allá por los años 60 y 70. Normalmente, un sistema diseñado con el Internet del futuro como modelo consistirá en uno o varios dispositivos para usuario final sujetos a estos usuarios finales, una red –a menudo, una red de sensores inalámbricos- encargada de recolectar datos para los dispositivos de usuario final, y a veces una estación base enviando los datos para su consiguiente procesado en ordenadores menos limitados en hardware. Al implementar un sistema diseñado con el Internet del futuro como patrón, los problemas, y más específicamente, las limitaciones que deben enfrentarse son numerosas: falta de estándares para plataformas y protocolos, cuellos de botella en el procesado, bajo tiempo de vida de las baterías, etc. Uno de los principales objetivos de este Proyecto Fin de Carrera es presentar un modelo funcional de cómo trabaja un sistema basado en los paradigmas relacionados al Internet del futuro, superando algunas de las dificultades que pueden esperarse y mostrando un modelo de una arquitectura middleware específicamente diseñado para un sistema omnipresente y ubicuo. Este Proyecto Fin de Carrera está dividido en varias partes. Empezando por una introducción a los principales temas y conceptos de este modelo, un estado del arte es ofrecido para proveer un trasfondo tecnológico. Después de eso, se muestra un ejemplo de middleware semántico orientado a servicios; después, se desarrolla un sistema construido por medio de este middleware semántico orientado a servicios, justificando su localización en un escenario particular, describiéndolo y analizando los datos obtenidos de él. Finalmente, las conclusiones extraídas de este sistema y las futuras tareas que sería bueno tratar también son mencionadas.
Resumo:
Este trabajo tiene como objetivos la monitorización en tiempo real de la actividad sísmica, tanto próxima como lejana, a partir de los datos sísmicos registrados por una estación de banda ancha, y el desarrollo de un sistema de difusión interactiva de información actualizada de terremotos, destinado al público general. Ambas fuentes de información se mostrarán a través de una Unidad de Visualización denominada “Monitor Sísmico Interactivo”. El registro de los datos sísmicos se realiza utilizando el sensor de tres componentes de la estación sísmica GUD, perteneciente a la Red Digital de Banda Ancha y transmisión digital del Instituto Geográfico Nacional, instalada en la Basílica del Valle de los Caídos, en lalocalidad de Guadarrama (Madrid). En la E.T.S.I. Topografía, Geodesia y Cartografía se ha instalado un ordenador con conexión a Internet, para la recepción y almacenamiento de los datos, y los programas Scream y Drumplot desarrollados por Guralp, necesarios para la monitorización de la señal sísmica en tiempo real. A partir de estos datos, mediante aplicaciones desarrolladas bajo programación Linux y haciendo uso de las herramientas que ofrece el software SAC (Seismic Analysis Code), se genera además un registro gráfico y una película animada de dicha segmentación para cada evento. Se ha configurado un servidor de correo y una cuenta para la recepción de dos tipos de mensajes de correo, enviados desde la sede central del Instituto Geográfico Nacional, con la información de los eventos registrados por GUD una vez revisados: - Mensajes enviados diariamente, con un listado de eventos ocurridos en los 30 últimos días. - Mensajes con la información en cuasi tiempo real de la última alerta sísmica. Se ha desarrollado el programa “saco” para la gestión del correo recibido que analiza la información sísmica, la almacena en ficheros y ejecuta sobre ellos las aplicaciones de dibujo. Estas aplicaciones han sido previamente desarrolladas bajo programación Linux y software GMT (Generic Mapping Tools), y a partir de ellas se generan automáticamente las distintas imágenes que se visualizan en el Monitor Sísmico: un mapa de sismicidad próxima en la Península Ibérica, un mapa de sismicidad lejana en el mundo, un mapa de detalle para localizar y representar la última alerta generada, los listados con la información de los eventos representados en los mapas, los registros gráficos y las películas animadas de dichos sismogramas. Monitor Sísmico Interactivo ha sido desarrollado para ofrecer además la posibilidad de interactuar con la Unidad de Visualización: se ha creado una base de datos para uso científico donde se almacenan todos los eventos registrados por GUD. Así el usuario puede realizar una petición, a través del envío de un mensaje de correo, que le permite visualizar de forma instantánea las imágenes que muestran la información de cualquier terremoto de su interés. ABSTRACT This study is aimed at real-time monitoring of both near and distant seismic activityfrom the seismic data recorded by a broadband seismic station, and the development of an interactive broadcast system of updated information of earthquakes, for the general public. Bothsources of information are displayed through a display unit called "Interactive Seismic Monitor". The seismic data recording is carried out by using the three-component sensor of the GUD seismic station, which belongs to the Digital Network Broadband and digital broadcast of the National Geographic Institute, housed in the Basilica of The Valley of the Fallen, in the town of Guadarrama (Madrid). A computer with Internet connection has been installed in E.T.S.I. Surveying, Geodesy and Cartography for receiving and storing data, together with Scream and Drumplot programs, developed by Guralp, which are necessary for monitoring the real time seismic signal. Based on the data collected, through programming applications developed under Linux system and using the software tools provided by the SAC (Seismic Analysis Code), a chart recorder and an animated gif image of the segmentation for each event are also generated. A mail server and a mail account have been configured for the receipt of two types of email messages, sent from the National Geographic Institute head office, with the information of the events recorded by GUD after being reviewed: - Messages sent daily, providing a list of events in the past 30 days. - Messages containing information on near real-time seismic of the last seismic alert. A program called "saco" has also been developed for handling mail received that analyzes the seismic data, which stores it in files and runs drawing applications on them. These applications have been previously developed under Linux system and software programming GMT (Generic Mapping Tools), and from them different images that are displayed on the Seismic Monitor are automatically generated: a near seismicity Iberian peninsula map, a distant seismicity world map, a detailed map to locate and represent the last seismic alert generated, the lists with the information of the events depicted in the maps,together with the charts and the animated gif image of such seismograms. Interactive Seismic Monitor has been developed to offer any user the possibility of interacting with the display unit: a database has been created for scientific use which stores all the events recorded by GUD. Thus, any user could make a request, by sending an e-mail that allows them to view instantly all the images showing the information of any earthquake of interest on the display unit.