27 resultados para Ponderación

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tarea de implantar una cubierta vegetal en taludes de carretera implica la consideración de una serie de factores que se presentan en estos lugares con matices específicos y configuran, aisladamente o en su conjunto, una situación distinta de la que habitualmente se presenta a la hora de sembrar o de plantar de forma común. Efectivamente, la pendiente, la temperatura del suelo, la compacidad del suelo, el contenido y distribución de humedad, la cantidad de materia orgánica, suelen definir un medio sumamente inadecuado para el desarrollo de la vegetación. De hecho, la colonización natural no se produce, o se lleva a cabo a un ritmo muy lento, en los taludes del tipo que se origina habitualmente junto a las grandes carreteras. Por otro lado, el establecimiento de una cubierta vegetal permanente parece ser el mejor procedimiento para conseguir la fijación y estabilización de taludes. En ponderación conjunta de los aspectos funcionales, económicos, estéticos y de conservación del medio natural, ofrece ventajas indudables sobre cualquier otro método; ventajas que persisten, en muchas ocasiones, aún limitando la consideración por separado a uno cualquiera de los cuatro aspectos. El problema objeto de este estudio, queda así centrado en la superación de la contradicción enunciada. Es claro que la solución puede conseguirse a base de "grandes remedios", como sería la modificación radical del "medio talud", viable técnicamente pero inviable económicamente en tal grado que no merece se le preste mayor atención que esta simple mención. La solución ha de buscarse, no obstante, por ese mismo camino, pero quitando a la modificación la nota de radical. El empleo de materiales que actúan como "mulch", estabilizador o acondicionador, y de técnicas tales como la hidrosiembra, ha supuesto un avance importante en el planteamiento técnico-económico del problema- Los materiales y técnicas aludidas proporcionan un medio menos hostil, en el que la vegetación puede debatirse ya con mejores perspectivas. La situación, en este hipotético ahora, podría dibujarse en dos trazos fundamentales: 1) El talud, tratado por cualquiera de los procedimientos conocidos, sigue siendo un medio artificial. Por lo tanto, al estudio de las condiciones climáticas, de las propiedades - del suelo y de la vegetación espontánea, ha de concedérsele importancia mucho menor de la acostumbrada en los estudios que contemplan un medio natural o poco modificado. 2) La finalidad perseguida es fijar los taludes de forma rápida y permanente. Importa, pues, decisivamente el efecto inicial de control de la erosión; y en segundo lugar dejar la puerta abierta para que los procesos naturales incidan sobre lo operado artificialmente, para irlo sustituyendo paulatinamente. En cualquier caso, y como prolongación de lo ya señalado acerca del peso a conceder al entorno natural, puede afirmarse que, más que los elementos definitorios de las comunidades naturales, son las componentes operativas de las especies empleadas las que determinan la viabilidad global de la acción emprendida. Se trata, pues, de buscar una comunidad funcional, cuyos componentes básicos apuntarían hacia el cumplimiento en el espacio y en el tiempo de una serie de funciones; entre ellas, es primordial el control de la erosión, que exige efectos extensos, inmediatos y permanentes. Los primeros capítulos del trabajo se dedican a la descripción de los aspectos particulares que el mecanismo erosivo presenta en los taludes de carreteras y de los factores que influyen en el establecimiento de la cubierta vegetal. En el capítulo 4 se sientan las bases que han de conducir a la elección de especies, y se enumeran los requisitos que éstas han de reunir. A continuación, se describe el medio en que se ha llevado a cabo la parte experimental: 30 taludes de la Autopista Barcelona-Gerona, en el tramo comprendido entre San Celoni y el Aeropuerto de Gerona, y las actuaciones realizadas sobre ellos, que son de dos tipos: 1) Cubrimiento de la superficie del talud, previo o simultáneo a la siembra, con uno de los siguientes materiales: - Tierra vegetal acopiada durante la explanación de la carretera. - Mulch de fibra larga, constituido por paja de cereal trabada con bitumen. - Mulch de fibra corta con un estabilizador de suelos, a base de alginatos. 2) Siembra con mezcla de semillas elegida entre seis previamente definidas. El estudio de los factores del medio, permite aceptar la homogeneidad previa a las actuaciones, y concretar el estudio del comportamiento de las especies en su respuesta a unos pocos elementos diferenciales: Intrínsecos al talud Desmonte o terraplén Exposición (solana o umbría) Pendiente Extrínsecos al talud Tipo de tratamiento recibido Composición de la siembra. Por último, en el Capitulo 4 se procede a la elección de especies a sembrar, mediante sucesivas aproximaciones a partir de la flora autóctona, disponibilidad de la se milla y consideraciones funcionales. La dosificación de las mezclas se verifica en base al Índice de concurrencia, con matizaciones derivadas de exposición y tipo de tratamiento. Las dificultades que se encuentran para conseguir el establecimiento en taludes artificiales de las especies habitualmente empleadas como pratenses, notoriamente relevantes en las zonas áridas, donde se suma a ellas la falta continuada de humedad durante largos períodos, han animado a investigar el comportamiento de algunas especies poco conocidas. Para ello, se llevaron a cabo ensayos de germinación en situaciones adversas, similares a las de los taludes. A continuación se describen las especies estudiadas, con referencia esquemática a su ecología y a los rasgos funcionales que han conducido a su elección. La inventariación de los resultados obtenidos en los taludes se realizó mediante un muestreo sistemático; el análisis de la información proporcionada se verificó en varias etapas. Un primer análisis consistió en explayar los resultados medios correspondientes a grupos de taludes, definidos según elementos diferenciales comunes, y a los diferentes conceptos del inventario (presencia en muestra, superficie cubierta y número de plantas). Este primer análisis permite definir la respuesta de las especies a las distintas actuaciones artificiales. El comportamiento de cada especie se aborda mediante la elaboración de cuatro índices, de los cuales sólo se retienen finalmente dos. Los Índices evidencian qué especies han dado los mejores resultados y qué otras han dado los peores; resta un tercer grupo, definido con menor precisión, que seguirá siendo analizado en las etapas posteriores del análisis. El estudio de las posibles correlaciones entre las especies, pone de manifiesto una baja estructuración de los datos, como por otra parte cabía esperar en una etapa preliminar de desarrollo, pero también evidencia ciertas constantes y paralelismos o divergencias en los comportamientos. El capítulo final contempla la posibilidad de distribuciones irregulares a lo largo de la altura de los taludes, como probablemente se darían si no existiesen actuaciones artificiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La proliferación en todos los ámbitos de la producción multimedia está dando lugar a la aparición de nuevos paradigmas de recuperación de información visual. Dentro de éstos, uno de los más significativos es el de los sistemas de recuperación de información visual, VIRS (Visual Information Retrieval Systems), en los que una de las tareas más representativas es la ordenación de una población de imágenes según su similitud con un ejemplo dado. En este trabajo se presenta una propuesta original para la evaluación de la similitud entre dos imágenes, basándose en la extensión del concepto de saliencia desde el espacio de imágenes al de características para establecer la relevancia de cada componente de dicho vector. Para ello se introducen metodologías para la cuantificación de la saliencia de valores individuales de características, para la combinación de estas cuantificaciones en procesos de comparación entre dos imágenes, y para, finalmente, establecer la mencionada ponderación de cada característica en atención a esta combinación. Se presentan igualmente los resultados de evaluar esta propuesta en una tarea de recuperación de imágenes por contenido en comparación con los obtenidos con la distancia euclídea. Esta comparación se realiza mediante la evaluación de ambos resultados por voluntarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El oleaje de la masa de líquido contenida en el interior del tanque de los camiones cisterna puede afectar significativamente a su dinámica de marcha y su estabilidad. Plateando como objetivo, el aumento de la seguridad, cualquier mejora en el diseño del vehículo o en la geometría de la virola, redundará en un aumento de la misma. En la actualidad, el marco normativo exige a los vehículos un umbral de vuelco mínimo, verificable mediante ensayo o cálculo en condiciones cuasi-estáticas. La experiencia en su aplicación ha demostrado que, éste último resulta extremadamente conservador, limitando las posibilidades de diseño del fabricante; además, el grado de equivalencia con las condiciones dinámicas a las que se puede ver sometido el vehículo durante su vida útil, no es claro. En esta tesis, se proponen una serie de mejoras en el método de cálculo simplificado, que aumentan la precisión en la estimación del umbral de vuelco, junto con el empleo de un coeficiente de ponderación del ángulo requerido, para tener en cuenta el efecto dinámico del oleaje. Además, se ha desarrollado un método de cálculo alternativo, que disminuye el error de la predicción, aunque requiere conocer un mayor número de parámetros del vehículo. Para cuantificar el efecto de la carga líquida, se ha realizado un análisis experimental, con tanques a escala, de las geometrías más frecuentes, junto con la propuesta de una metodología de simulación de la interacción fluido-vehículo, basada en el acoplamiento entre un modelo obtenido mediante una analogía mecánica que reproduce el efecto del oleaje, con un modelo del vehículo, empleando la técnica de multi-cuerpo, que ha sido validada experimentalmente. Para la obtención de los parámetros que la definen, se propone dos alternativas, la experimentación y estimación parámetros o el empleo la dinámica computacional de fluidos, basada en las ecuaciones de Navier-Stokes, incorporando la técnica de volumen de fluido para capturar la superficie libre. Se ofrecen resultados de ambas y su comparación. Finalmente, se han analizado las diferentes tipologías de maniobras existentes para la evaluación de la estabilidad lateral de los vehículos con ensayos dinámicos, calificando y cuantificando su equivalencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El actual proyecto consiste en la creación de una interfaz gráfica de usuario (GUI) en entorno de MATLAB que realice una representación gráfica de la base de datos de HRTF (Head-Related Transfer Function). La función de transferencia de la cabeza es una herramienta muy útil en el estudio de la capacidad del ser humano para percibir su entorno sonoro, además de la habilidad de éste en la localización de fuentes sonoras en el espacio que le rodea. La HRTF biaural (terminología para referirse al conjunto de HRTF del oído izquierdo y del oído derecho) en sí misma, posee información de especial interés ya que las diferencias entre las HRTF de cada oído, conceden la información que nuestro sistema de audición utiliza en la percepción del campo sonoro. Por ello, la funcionalidad de la interfaz gráfica creada presenta gran provecho dentro del estudio de este campo. Las diferencias interaurales se caracterizan en amplitud y en tiempo, variando en función de la frecuencia. Mediante la transformada inversa de Fourier de la señal HRTF, se obtiene la repuesta al impulso de la cabeza, es decir, la HRIR (Head-Related Impulse Response). La cual, además de tener una gran utilidad en la creación de software o dispositivos de generación de sonido envolvente, se utiliza para obtener las diferencias ITD (Interaural Time Difference) e ILD (Interaural Time Difference), comúnmente denominados “parámetros de localización espacial”. La base de datos de HRTF contiene la información biaural de diferentes puntos de ubicación de la fuente sonora, formando una red de coordenadas esféricas que envuelve la cabeza del sujeto. Dicha red, según las medidas realizadas en la cámara anecoica de la EUITT (Escuela Universitaria de Ingeniería Técnica de Telecomunicación), presenta una precisión en elevación de 10º y en azimut de 5º. Los receptores son dos micrófonos alojados en el maniquí acústico llamado HATS (Hats and Torso Simulator) modelo 4100D de Brüel&Kjaer. Éste posee las características físicas que influyen en la percepción del entorno como son las formas del pabellón auditivo (pinna), de la cabeza, del cuello y del torso humano. Será necesario realizar los cálculos de interpolación para todos aquellos puntos no contenidos en la base de datos HRTF, este proceso es sumamente importante no solo para potenciar la capacidad de la misma sino por su utilidad para la comparación entre otras bases de datos existentes en el estudio de este ámbito. La interfaz gráfica de usuario está concebida para un manejo sencillo, claro y predecible, a la vez que interactivo. Desde el primer boceto del programa se ha tenido clara su filosofía, impuesta por las necesidades de un usuario que busca una herramienta práctica y de manejo intuitivo. Su diseño de una sola ventana reúne tanto los componentes de obtención de datos como los que hacen posible la representación gráfica de las HRTF, las HRIR y los parámetros de localización espacial, ITD e ILD. El usuario podrá ir alternando las representaciones gráficas a la vez que introduce las coordenadas de los puntos que desea visualizar, definidas por phi (elevación) y theta (azimut). Esta faceta de la interfaz es la que le otorga una gran facilidad de acceso y lectura de la información representada en ella. Además, el usuario puede introducir valores incluidos en la base de datos o valores intermedios a estos, de esta manera, se indica a la interfaz la necesidad de realizar la interpolación de los mismos. El método de interpolación escogido es el de la ponderación de la distancia inversa entre puntos. Dependiendo de los valores introducidos por el usuario se realizará una interpolación de dos o cuatro puntos, siendo éstos limítrofes al valor introducido, ya sea de phi o theta. Para añadir versatilidad a la interfaz gráfica de usuario, se ha añadido la opción de generar archivos de salida en forma de imagen de las gráficas representadas, de tal forma que el usuario pueda extraer los datos que le interese para cualquier valor de phi y theta. Se completa el presente proyecto fin de carrera con un trabajo de investigación y estudio comparativo de la función y la aplicación de las bases de datos de HRTF dentro del marco científico y de investigación. Esto ha hecho posible concentrar información relacionada a través de revistas científicas de investigación como la JAES (Journal of the Audio Engineering Society) o la ASA (Acoustical Society of America), además, del IEEE ( Institute of Electrical and Electronics Engineers) o la “Web of knowledge” entre otras. Además de realizar la búsqueda en estas fuentes, se ha optado por vías de información más comunes como Google Académico o el portal de acceso “Ingenio” a los todos los recursos electrónicos contenidos en la base de datos de la universidad. El estudio genera una ampliación en el conocimiento de la labor práctica de las HRTF. La mayoría de los estudios enfocan sus esfuerzos en mejorar la percepción del evento sonoro mediante su simulación en la escucha estéreo o multicanal. A partir de las HRTF, esto es posible mediante el análisis y el cálculo de datos como pueden ser las regresiones, siendo éstas muy útiles en la predicción de una medida basándose en la información de la actual. Otro campo de especial interés es el de la generación de sonido 3D. Mediante la base de datos HRTF es posible la simulación de una señal biaural. Se han diseñado algoritmos que son implementados en dispositivos DSP, de tal manera que por medio de retardos interaurales y de diferencias espectrales es posible llegar a un resultado óptimo de sonido envolvente, sin olvidar la importancia de los efectos de reverberación para conseguir un efecto creíble de sonido envolvente. Debido a la complejidad computacional que esto requiere, gran parte de los estudios coinciden en desarrollar sistemas más eficientes, llegando a objetivos tales como la generación de sonido 3D en tiempo real. ABSTRACT. This project involves the creation of a Graphic User Interface (GUI) in the Matlab environment which creates a graphic representation of the HRTF (Head-Related Transfer Function) database. The head transfer function is a very useful tool in the study of the capacity of human beings to perceive their sound environment, as well as their ability to localise sound sources in the area surrounding them. The binaural HRTF (terminology which refers to the HRTF group of the left and right ear) in itself possesses information of special interest seeing that the differences between the HRTF of each ear admits the information that our system of hearing uses in the perception of each sound field. For this reason, the functionality of the graphic interface created presents great benefits within the study of this field. The interaural differences are characterised in space and in time, varying depending on the frequency. By means of Fourier's transformed inverse of the HRTF signal, the response to the head impulse is obtained, in other words, the HRIR (Head-Related Impulse Response). This, as well as having a great use in the creation of software or surround sound generating devices, is used to obtain ITD differences (Interaural Time Difference) and ILD (Interaural Time Difference), commonly named “spatial localisation parameters”. The HRTF database contains the binaural information of different points of sound source location, forming a network of spherical coordinates which surround the subject's head. This network, according to the measures carried out in the anechoic chamber at the EUITT (School of Telecommunications Engineering) gives a precision in elevation of 10º and in azimuth of 5º. The receivers are two microphones placed on the acoustic mannequin called HATS (Hats and Torso Simulator) Brüel&Kjaer model 4100D. This has the physical characteristics which affect the perception of the surroundings which are the forms of the auricle (pinna), the head, neck and human torso. It will be necessary to make interpolation calculations for all those points which are not contained the HRTF database. This process is extremely important not only to strengthen the database's capacity but also for its usefulness in making comparisons with other databases that exist in the study of this field. The graphic user interface is conceived for a simple, clear and predictable use which is also interactive. Since the first outline of the program, its philosophy has been clear, based on the needs of a user who requires a practical tool with an intuitive use. Its design with only one window unites not only the components which obtain data but also those which make the graphic representation of the HRTFs possible, the hrir and the ITD and ILD spatial location parameters. The user will be able to alternate the graphic representations at the same time as entering the point coordinates that they wish to display, defined by phi (elevation) and theta (azimuth). The facet of the interface is what provides the great ease of access and reading of the information displayed on it. In addition, the user can enter values included in the database or values which are intermediate to these. It is, likewise, indicated to the interface the need to carry out the interpolation of these values. The interpolation method is the deliberation of the inverse distance between points. Depending on the values entered by the user, an interpolation of two or four points will be carried out, with these being adjacent to the entered value, whether that is phi or theta. To add versatility to the graphic user interface, the option of generating output files in the form of an image of the graphics displayed has been added. This is so that the user may extract the information that interests them for any phi and theta value. This final project is completed with a research and comparative study essay on the function and application of HRTF databases within the scientific and research framework. It has been possible to collate related information by means of scientific research magazines such as the JAES (Journal of the Audio Engineering Society), the ASA (Acoustical Society of America) as well as the IEEE (Institute of Electrical and Electronics Engineers) and the “Web of knowledge” amongst others. In addition to carrying out research with these sources, I also opted to use more common sources of information such as Academic Google and the “Ingenio” point of entry to all the electronic resources contained on the university databases. The study generates an expansion in the knowledge of the practical work of the HRTF. The majority of studies focus their efforts on improving the perception of the sound event by means of its simulation in stereo or multichannel listening. With the HRTFs, this is possible by means of analysis and calculation of data as can be the regressions. These are very useful in the prediction of a measure being based on the current information. Another field of special interest is that of the generation of 3D sound. Through HRTF databases it is possible to simulate the binaural signal. Algorithms have been designed which are implemented in DSP devices, in such a way that by means of interaural delays and wavelength differences it is possible to achieve an excellent result of surround sound, without forgetting the importance of the effects of reverberation to achieve a believable effect of surround sound. Due to the computational complexity that this requires, a great many studies agree on the development of more efficient systems which achieve objectives such as the generation of 3D sound in real time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fernando Saéz Vacas escribe sobre tecnología con mirada renacentista, amplia de intereses y saberes. Vivimos en un mundo hiper especializado, donde se cumple la premonición de Machado: "Nadie sabe ya lo que se sabe, pero todo el mundo sabe que de todo hay quien sepa". Necesitamos pensadores que integren tanto saber disperso y fragmentado. Sáez Vacas lo consigue. Devuelve la técnica al mundo de la gran cultura, sin demonizarla y sin divinizarla. Cree que necesitamos conocer su lado brillante y su lado oscuro. Su estudio del efecto 2000 es un ejemplo de perspicacia y ponderación. La infotecnología resuelve problemas y plantea problemas. En este momento nuestras relaciones con la realidad se han hecho altamente ambiguas. La técnica se ha convertido en la gran interfaz. La realidad se desmaterializa progresivamente. El ser humano adquiere una fluidez nueva, que no sabemos bien como evaluar. Sáez Vacas, preocupado por la educación, piensa que el aprendizaje permanente puede crear un sujeto con yoes múltiples. Lo llama con un nombre apabullante: "Mamífero Multimutante Multinootópico", y se pregunta: ¿Cómo podemos educar a un individuo así? La tendencia utilitaria que prevalece en el mundo educativo es mala solución.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los métodos numéricos, como es sabido, son en muchas ocasiones altamente sensibles a las situaciones singulares que se presentan en diversos problemas de ingeniería, pudiendo dar lugar a errores, locales o globales, que invalidan los resultados proporcionados por un modelo que, en principio, se supone bien planteado. Tal es el caso de la aplicación del Método de los Elementos de Contorno a problemas dinámicos en medios incompresibles, donde el Coeficiente de Poisson se aproxima a su valor límite de 0,5. En estas circunstancias, según el modelo clásico de propagación de ondas, la velocidad de propagación de las ondas longitudinales (ondas P) tiende a infinito, lo que hace inoperantes las expresiones explícitas de la solución fundamental (o función de ponderación) tal como aparecen en la literatura técnica. El recurso de aproximar el valor de dicho Coeficiente como 0,499 ... conduce en ocasiones a resultados insuficientemente exactos cuando no manifiestamente erróneos, especialmente cuando se trabaja con simple precisión, como consecuencia de los errores de truncamiento en expresiones que, en el límite, serían de la forma: (cero)x(infinito). En el presente artículo se muestran los resultados analíticos de las diversas formas indeterminadas que aparecen en la aplicación del método para el caso aludido. Los resultados son de aplicación a diversos problemas de fluidos, así como a problemas de interacción suelo-estructura en terrenos arcillosos. Se presenta un ejemplo de aplicación que muestra la convergencia de la solución obtenida por el procedimiento propuesto, en contraste con la no-convergencia a que conduce la aproximación del Coeficiente de Poisson como 0,499…

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perforación de túneles constituye una tarea clave en la mejora de las comunicaciones y en el desarrollo de la industria minera. Debido a su complejidad y al alto número de factores que influyen en su desdarrollo, este tipo de proyectos han sido considerados tradicionalmente obras de alto e indefinido riesgo. La difusión del llamado Nuevo Método Austriaco, ha supuesto un gran impulso en la tecnificación de este tipo de proyectos. Paradójicamente, aún en la actualidad, el problema de los márgenes de seguridad en el cálculo se suele reducir en la práctica a la evaluación de un único coeficiente cuya definición no satisface los criterios actualmente aceptados en este campo. En este trabajo se ha pretendido, de acuerdo a las tendencias actuales, introducir las técnicas de Fiabilidad Estructural en el modelo de cálculo del sostenimiento propuesto por el NATM. En el desarrollo se ha tomado como punto de partida el método de cálculo de las Curvas Características, para lo cual se han formulado las correspondientes leyes de comportamiento del terreno y del sostenimiento. Se han establecido 3 Estados Límite de referencia y se ha seleccionado un conjunto de variables básicas representativas del problema estudiado. Finalmente la aplicación de los conceptos de Fiabilidad Estructural en Nivel II junto con el algoritmo de estimación puntual de E. Rosenblueth, han permitido el desarrollo de modelos de cálculo que permiten la determinación de los Indices de Fiabilidad Estructural respecto a los 3 Estados Límite considerados. El esquema descrito ha sido implementado en programas de cálculo. Estos programas de cálculo han sido utilizados en el estudio de diversos ejemplos correspondientes a situaciones reales de proyecto y se han desarrollado diversos estudios paramétricos. Todo ello ha permitido comprobar la validez del procedimiento desarrollado y llegar al establecimiento de un propuesta de calibración de factores parciales de ponderación que podrían ser incorporados en recomendaciones prácticas de cálculo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El libro comienza haciendo referencia a la seguridad en los sistemas estructurales, centrándose específicamente en las incertidumbres, la fiabilidad estructural y los métodos de comprobación de la seguridad. Posteriormente se tratan algunos métodos de nivel II utilizados para valorar la probabilidad de fallo; así, se hace referencia al índice de fiabilidad en general y, en particular al de Cornell y al de Hasofer y Lind; respecto a los métodos de cálculo del índice de fiabilidad, se estudia el método de los momentos de segundo orden y el método de las estimaciones puntuales. Del método de los momentos de segundo orden se analizan las funciones de fallo no lineales, esquema iterativo, las variables correlacionadas y la transformación de variables aleatorias. El capítulo destinado a las normas basadas en los conceptos de fiabilidad estructural analiza la relación entre los métodos de comprobación de la seguridad nivel I y nivel ll, la obtención de los coeficientes de ponderación mediante el método de los momentos de segundo orden y los formatos de cálculo en valores medios y valores característicos para terminar con la aplicación de a un caso práctico. Finalmente, se realiza un estudio de niveles de seguridad en túneles, para lo que se realiza una descripción física del problema, se plantea un modelo matemático de cálculo y se realiza un análisis de la seguridad así como la caracterización de variables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es sabido, el diseño de alumbrado está siendo sometido a un importante proceso de revisión con objeto de homogeneizar los métodos utilizados en los diferentes países de la Comunidad Económica Europea. Este proceso de codificación abarca detalles geométricos, tolerancias, definición de acciones, métodos de carga, etc., algunos de los cuales se encuentran todavía en discusión. En este artículo se comentan algunos puntos relativos a los métodos de comprobación por cálculo. En particular se comparan las propuestas de la legislación española con la británica y algunos esfuerzos comunitarios. En opinión de los autores, un posible código español debería estar basado: a) En un enfoque en Estados Límites congruente con el resto de la normativa española y los Eurocódigos recientemente elaborados; b) La norma inglesa BS 5649-7 es una base aceptable para el establecimiento de la Norma Española si se acepta la sustitución de los coeficientes de ponderación por los recomendados en la Norma MV-103 y se sustituye la fórmula de interacción lineal por otra parabólica; c) Sería muy importante el establecimiento de las características de la luminaria tipo de acuerdo con los datos de uso. En particular sería deseable relacionar las limitaciones de flecha con la funcionalidad de la luminaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es sabido, el diseño de alumbrado está siendo sometido a un importante proceso de revisión con objeto de homogeneizar los métodos utilizados en los diferentes países de la Comunidad Económica Europea. Este proceso de codificación abarca detalles geométricos, tolerancias, definición de acciones, métodos de carga, etc., algunos de los cuales se encuentran todavía en discusión. En este artículo se comentan algunos puntos relativos a los métodos de comprobación por cálculo. En particular se comparan las propuestas de la legislación española con la británica y algunos esfuerzos comunitarios. En opinión de los autores, un posible código español debería estar basado: a) En un enfoque en Estados Límites congruente con el resto de la normativa española y los Eurocódigos recientemente elaborados; b) La norma inglesa BS 5649-7 es una base aceptable para el establecimiento de la Norma Española si se acepta la sustitución de los coeficientes de ponderación por los recomendados en la Norma MV-103 y se sustituye la fórmula de interacción lineal por otra parabólica; c) Sería muy importante el establecimiento de las características de la luminaria tipo de acuerdo con los datos de uso. En particular sería deseable relacionar las limitaciones de flecha con la funcionalidad de la luminaria.