129 resultados para Ponderación
Resumo:
A partir de la revisión de casos externos, se presentan los debates y decisiones que se generaron en vista de la construcción de un instrumento de relevamiento para la planificación de proyectos de curaduría de datos y preservación digital en el IdIHCS/FaHCE. En lo relativo a la revisión de estos casos externos, se analizan propuestas metodológicas resultantes de los principales proyectos europeos, preocupados por el armado de infraestructuras de información para la investigación. Asimismo, a nivel nacional, se toma en consideración el antecedente de la Plataforma Interactiva de Investigaciones en Ciencias Sociales (PLIICS), proyecto del CONICET. En cuanto a la definición de una metodología de relevamiento de fuentes, adecuada a las características de trabajo propias de nuestras instituciones de investigación, se presentan los principales aspectos a considerar y los elementos requeridos en el instrumento a elaborar. El mismo deberá reflejar los principales problemas relativos a: valoración de la importancia para las investigaciones en curso, estado de procesamiento, interés de los investigadores en la visibilización de las fuentes, ponderación de acuerdo al uso, evaluación de las posibilidades legales de difusión en acceso abierto, etc. Todo lo anterior con la finalidad de priorizar proyectos que permitan preservar las fuentes en riesgo, y obtener información que facilite una planificación adecuada a las necesidades del ámbito local
Resumo:
El presente trabajo integra una investigación de mayor alcance que se efectúa en el ámbito de la Facultad de Ciencias Empresariales de la Universidad Abierta Interamericana, denominada 'Gestión del cambio empresarial en el contexto manufacturero pyme de la ciudad de Rosario'. En dicha investigación se intenta con nuevas metodologías de análisis, propender al desarrollo de competencias ejecutivas y gerenciales en dicho sector de la economía, que posibiliten el dinámico proceso de comprensión, interpretación y acción en la gestión, de la realidad de los contextos de inserción y de los sujetos implicados en la misma. Hablar de la gestión del cambio es referirse prácticamente a la historia de la administración de organizaciones, ya que sin duda todas las principales escuelas de pensamiento apuntaron a guiar los comportamientos de los individuos-sujetos organizacionales, con planteos que se desplegaban en un amplio abanico desde aquellos modelos cerrados de causa y efecto, con una consideración de individuos indiferenciados e intercambiables, costo variable en la función de producción tipo, propios de la administración científica del trabajo; a los modernos abordajes comprensivos-interpretativos, que destacan el potencial sinérgico de los sujetos, desplegados en marcos organizacionales aunados por una visión compartida, el compromiso resultante de la socialización organizacional, una cultura innovadora, creativa y flexible, etc. finalmente organizaciones inteligentes, centradas en el aprendizaje con alto grado de adaptación al contexto y riqueza social generada. En todas aquellas interpretaciones significativas que intentaban orientar el accionar humano en las organizaciones, se desprendían concepciones del individuo-sujeto, ideologías, percepciones de una realidad estable o dinámica, etc., análisis construidos con una puesta en situación de los contextos que demarcaban las prácticas concretas que se realizaban en las organizaciones de su época, con una más o menos amplia visión a futuro. Hoy en día las prácticas basculan entre las dos categorías que ya esbozaron las principales teorías de la administración con distinto grado de ponderación, es decir poniendo el punto de vista central en la gestión de recursos (incluido el humano) o en el comportamiento humano en las organizaciones. Estos principios coexisten en las organizaciones actuales, no encontrando por lo general las mismas el punto de equilibrio que se sintetice en una competitividad integral centrada en la eficiencia operativa, pero sustentable desde el punto de vista de las subjetividades de las personas que despliegan sus prácticas, y desarrollan buena parte de su identidad individual y social en dichas empresas. Se piensa que el desafío como profesional de la Psicología del trabajo y las organizaciones es facilitar la toma de conciencia en los actores (titulares, ejecutivos y gerentes de empresas), de la necesidad de encontrar dichas formas específicas de actuación organizacional que pongan en resonancia las percepciones, expectativas, motivación, accionar de los sujetos en las organizaciones con modelos, sistemas, políticas, decisiones, etc en la gestión, que viabilicen el compromiso en la generación de riqueza social, con sustentabilidad, equidad y pleno empleo. Lo que se despliega en el trabajo es la implementación específica de estos principios, desplegadas en prácticas de consultoría de gestión de organizaciones pymes -desarrolladas desde hace más de quince años, con todos los avatares que dicho tipo de experiencias nos plantea como desafío en nuestro país. A partir de las mismas se establecen las categorías de aplicación de un modelo accional que colabore con el accionar de la gestión de los ejecutivos de estas empresas, facilitando el mejoramiento de las condiciones de vida laborales y el desarrollo de un conjunto de sistemas de adaptación al contexto
Resumo:
La búsqueda de una comunidad socio-lingüístico-cultural articuló, hasta avanzado el siglo veinte, las propuestas de organización simbólica de los Estados nacionales y de otras unidades de la región. En esta búsqueda, se puede bosquejar una tradición crítica que entrama distintas posiciones e intervenciones en torno de los usos literarios de la lengua americana a la vez que sostiene su ponderación como matriz articuladora de la diversidad étnica, social y cultural. En este artículo se leen, en algunos textos críticos producidos en el área (hispano)americana entre 1880 y 1920, los usos de la lengua literaria en relación con algunos de los numerosos debates registrados en torno de las opciones político-lingüísticas de la época.
Resumo:
La provincia de Santa Fe, Argentina, se encuentra en una localización estratégica. La potencialidad de la Hidrovía Paraná-Paraguay, los corredores bioceánicos viales y la red existente de trazados ferroviarios le confieren gran dinamismo a su integración económica, social, cultural y política, no sólo hacia el interior del propio territorio, sino también en relación a las demás provincias y más allá de los confines nacionales. La región capital, cuyo núcleo es la ciudad de Santa Fe, se encuentra caracterizada por factores realmente dinámicos: el riesgo hídrico que es intrínseco del área, la intensificación de los flujos económicos pasantes, los procesos de concentración demográfica y la creciente interdependencia entre ciudades, como es el casode Santa Fe y Paraná (capital de la vecina provincia de Entre Ríos), bajo un progresivo proceso de metropolización binuclear. Estos factores, sumados a la escasa cantidad de conexiones físicas sobre el sistema fluvial del río Paraná, han instalado la creciente necesidad de contar con un nuevo enlace interprovincial, adaptado a una hipótesis de reactivación ferroviaria. El proyecto se encuentra en fase preliminar. La cuestión principal gira en torno a la decisión de su localización específica, que deberá considerar el profundo efecto transformador propio de una obra civil de gran calibre, tanto en relación a la plataforma natural como al sistema de asentamientos humanos. También sus alcances territoriales y el impacto potencial en la micro, meso y macroescala. El propósito de la investigación reside en profundizar sobre las dimensiones involucradas por el proyecto (técnica, social, económica, ambiental, de movilidad), en la búsqueda de una toma de posición que permita echar luz sobre los escenarios más beneficiosos y/o menos desfavorables, en relación a las numerosas propuestas de localización que se encuentran actualmente en discusión. El resultado es una matriz analítica basada en variables cuantitativas y cualitativas, que permite una evaluación integral de las propuestas en función de considerar, en síntesis, el grado de impacto sobre la plataforma natural sustentante, sus capacidades para revertir las problemáticas territoriales actuales, y finalmente sus posibilidades para generar nuevos ejes de desarrollo en la región o bien potenciar los existentes. Se concluye que análisis preliminares de tipo pluridimensional son necesarios para someter a discusión, como instancia previa a estudios específicos de factibilidad y viabilidad, puesto que permiten una visualización integral de las variables intervinientes, marcando el camino hacia su adecuada ponderación. Palabras clave: enlace, multimodalidad, región, transformaciones
Resumo:
El Territorio hoy es visto como una totalidad organizada que no puede ser pensada separando cada uno de los elementos que la componen; cada uno de ellos es definido por su relación con los otros elementos. Así, un pensamiento que integra diferentes disciplinas y saberes comienza a manejar una realidad que lejos está de definir certezas inamovibles, y comienza a vislumbrar horizontes estratégicos. La adaptación a la no linealidad de las relaciones que se dan sobre el territorio, y la diferencia de velocidades en las que actúan los distintos actores, nos exige hacer de la flexibilidad una característica esencial de la metodología de planificación estratégica. La multi-causalidad de los fenómenos que estructuran el territorio nos obliga a construir criterios cualitativos, entendiendo que nos es imposible la medición de estas cadenas causales y su reconstrucción completa en el tiempo; sin dejar por ello de edificar un marco profundo de acción y transformación que responda a una realidad cierta y veraz. Los fenómenos producidos sobre el territorio nunca actúan de manera aislada, lo que implica una responsabilidad a la hora de comprender las sinergias y la restricción que afectan los resultados de los procesos desatados. La presente ponencia corresponde a la Segunda Fase del proceso de identificación estratégica de los proyectos Plan Estratégico Territorial (PET) que se inició en el año 2005; dicho Plan es llevada a cabo por la Subsecretaría de Planificación Territorial del Ministerio de Planificación Federal y fue abordado sobre la base de tres pretensiones: institucionalizar el ejercicio del pensamiento estratégico, fortalecer la metodología de trabajo transdisciplinaria y multisectorial, y diseñar un sistema de ponderación de proyectos estratégicos de infraestructura, tanto a nivel provincial como nacional, con una fuerte base cualitativa. Este proceso dio como resultado una cartera ponderada de proyectos de infraestructura conjuntamente con una metodología que permitió consolidar los equipos provinciales de planificación, tanto en su relación con los decisores políticos como con los actores de los múltiples sectores del gobierno, y en estos resultados consolidar y reforzar una cultura del pensamiento estratégico sobre el territorio
Resumo:
La tarea de implantar una cubierta vegetal en taludes de carretera implica la consideración de una serie de factores que se presentan en estos lugares con matices específicos y configuran, aisladamente o en su conjunto, una situación distinta de la que habitualmente se presenta a la hora de sembrar o de plantar de forma común. Efectivamente, la pendiente, la temperatura del suelo, la compacidad del suelo, el contenido y distribución de humedad, la cantidad de materia orgánica, suelen definir un medio sumamente inadecuado para el desarrollo de la vegetación. De hecho, la colonización natural no se produce, o se lleva a cabo a un ritmo muy lento, en los taludes del tipo que se origina habitualmente junto a las grandes carreteras. Por otro lado, el establecimiento de una cubierta vegetal permanente parece ser el mejor procedimiento para conseguir la fijación y estabilización de taludes. En ponderación conjunta de los aspectos funcionales, económicos, estéticos y de conservación del medio natural, ofrece ventajas indudables sobre cualquier otro método; ventajas que persisten, en muchas ocasiones, aún limitando la consideración por separado a uno cualquiera de los cuatro aspectos. El problema objeto de este estudio, queda así centrado en la superación de la contradicción enunciada. Es claro que la solución puede conseguirse a base de "grandes remedios", como sería la modificación radical del "medio talud", viable técnicamente pero inviable económicamente en tal grado que no merece se le preste mayor atención que esta simple mención. La solución ha de buscarse, no obstante, por ese mismo camino, pero quitando a la modificación la nota de radical. El empleo de materiales que actúan como "mulch", estabilizador o acondicionador, y de técnicas tales como la hidrosiembra, ha supuesto un avance importante en el planteamiento técnico-económico del problema- Los materiales y técnicas aludidas proporcionan un medio menos hostil, en el que la vegetación puede debatirse ya con mejores perspectivas. La situación, en este hipotético ahora, podría dibujarse en dos trazos fundamentales: 1) El talud, tratado por cualquiera de los procedimientos conocidos, sigue siendo un medio artificial. Por lo tanto, al estudio de las condiciones climáticas, de las propiedades - del suelo y de la vegetación espontánea, ha de concedérsele importancia mucho menor de la acostumbrada en los estudios que contemplan un medio natural o poco modificado. 2) La finalidad perseguida es fijar los taludes de forma rápida y permanente. Importa, pues, decisivamente el efecto inicial de control de la erosión; y en segundo lugar dejar la puerta abierta para que los procesos naturales incidan sobre lo operado artificialmente, para irlo sustituyendo paulatinamente. En cualquier caso, y como prolongación de lo ya señalado acerca del peso a conceder al entorno natural, puede afirmarse que, más que los elementos definitorios de las comunidades naturales, son las componentes operativas de las especies empleadas las que determinan la viabilidad global de la acción emprendida. Se trata, pues, de buscar una comunidad funcional, cuyos componentes básicos apuntarían hacia el cumplimiento en el espacio y en el tiempo de una serie de funciones; entre ellas, es primordial el control de la erosión, que exige efectos extensos, inmediatos y permanentes. Los primeros capítulos del trabajo se dedican a la descripción de los aspectos particulares que el mecanismo erosivo presenta en los taludes de carreteras y de los factores que influyen en el establecimiento de la cubierta vegetal. En el capítulo 4 se sientan las bases que han de conducir a la elección de especies, y se enumeran los requisitos que éstas han de reunir. A continuación, se describe el medio en que se ha llevado a cabo la parte experimental: 30 taludes de la Autopista Barcelona-Gerona, en el tramo comprendido entre San Celoni y el Aeropuerto de Gerona, y las actuaciones realizadas sobre ellos, que son de dos tipos: 1) Cubrimiento de la superficie del talud, previo o simultáneo a la siembra, con uno de los siguientes materiales: - Tierra vegetal acopiada durante la explanación de la carretera. - Mulch de fibra larga, constituido por paja de cereal trabada con bitumen. - Mulch de fibra corta con un estabilizador de suelos, a base de alginatos. 2) Siembra con mezcla de semillas elegida entre seis previamente definidas. El estudio de los factores del medio, permite aceptar la homogeneidad previa a las actuaciones, y concretar el estudio del comportamiento de las especies en su respuesta a unos pocos elementos diferenciales: Intrínsecos al talud Desmonte o terraplén Exposición (solana o umbría) Pendiente Extrínsecos al talud Tipo de tratamiento recibido Composición de la siembra. Por último, en el Capitulo 4 se procede a la elección de especies a sembrar, mediante sucesivas aproximaciones a partir de la flora autóctona, disponibilidad de la se milla y consideraciones funcionales. La dosificación de las mezclas se verifica en base al Índice de concurrencia, con matizaciones derivadas de exposición y tipo de tratamiento. Las dificultades que se encuentran para conseguir el establecimiento en taludes artificiales de las especies habitualmente empleadas como pratenses, notoriamente relevantes en las zonas áridas, donde se suma a ellas la falta continuada de humedad durante largos períodos, han animado a investigar el comportamiento de algunas especies poco conocidas. Para ello, se llevaron a cabo ensayos de germinación en situaciones adversas, similares a las de los taludes. A continuación se describen las especies estudiadas, con referencia esquemática a su ecología y a los rasgos funcionales que han conducido a su elección. La inventariación de los resultados obtenidos en los taludes se realizó mediante un muestreo sistemático; el análisis de la información proporcionada se verificó en varias etapas. Un primer análisis consistió en explayar los resultados medios correspondientes a grupos de taludes, definidos según elementos diferenciales comunes, y a los diferentes conceptos del inventario (presencia en muestra, superficie cubierta y número de plantas). Este primer análisis permite definir la respuesta de las especies a las distintas actuaciones artificiales. El comportamiento de cada especie se aborda mediante la elaboración de cuatro índices, de los cuales sólo se retienen finalmente dos. Los Índices evidencian qué especies han dado los mejores resultados y qué otras han dado los peores; resta un tercer grupo, definido con menor precisión, que seguirá siendo analizado en las etapas posteriores del análisis. El estudio de las posibles correlaciones entre las especies, pone de manifiesto una baja estructuración de los datos, como por otra parte cabía esperar en una etapa preliminar de desarrollo, pero también evidencia ciertas constantes y paralelismos o divergencias en los comportamientos. El capítulo final contempla la posibilidad de distribuciones irregulares a lo largo de la altura de los taludes, como probablemente se darían si no existiesen actuaciones artificiales.
Resumo:
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
Resumo:
Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.
Resumo:
Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.
Resumo:
La proliferación en todos los ámbitos de la producción multimedia está dando lugar a la aparición de nuevos paradigmas de recuperación de información visual. Dentro de éstos, uno de los más significativos es el de los sistemas de recuperación de información visual, VIRS (Visual Information Retrieval Systems), en los que una de las tareas más representativas es la ordenación de una población de imágenes según su similitud con un ejemplo dado. En este trabajo se presenta una propuesta original para la evaluación de la similitud entre dos imágenes, basándose en la extensión del concepto de saliencia desde el espacio de imágenes al de características para establecer la relevancia de cada componente de dicho vector. Para ello se introducen metodologías para la cuantificación de la saliencia de valores individuales de características, para la combinación de estas cuantificaciones en procesos de comparación entre dos imágenes, y para, finalmente, establecer la mencionada ponderación de cada característica en atención a esta combinación. Se presentan igualmente los resultados de evaluar esta propuesta en una tarea de recuperación de imágenes por contenido en comparación con los obtenidos con la distancia euclídea. Esta comparación se realiza mediante la evaluación de ambos resultados por voluntarios.
Resumo:
El oleaje de la masa de líquido contenida en el interior del tanque de los camiones cisterna puede afectar significativamente a su dinámica de marcha y su estabilidad. Plateando como objetivo, el aumento de la seguridad, cualquier mejora en el diseño del vehículo o en la geometría de la virola, redundará en un aumento de la misma. En la actualidad, el marco normativo exige a los vehículos un umbral de vuelco mínimo, verificable mediante ensayo o cálculo en condiciones cuasi-estáticas. La experiencia en su aplicación ha demostrado que, éste último resulta extremadamente conservador, limitando las posibilidades de diseño del fabricante; además, el grado de equivalencia con las condiciones dinámicas a las que se puede ver sometido el vehículo durante su vida útil, no es claro. En esta tesis, se proponen una serie de mejoras en el método de cálculo simplificado, que aumentan la precisión en la estimación del umbral de vuelco, junto con el empleo de un coeficiente de ponderación del ángulo requerido, para tener en cuenta el efecto dinámico del oleaje. Además, se ha desarrollado un método de cálculo alternativo, que disminuye el error de la predicción, aunque requiere conocer un mayor número de parámetros del vehículo. Para cuantificar el efecto de la carga líquida, se ha realizado un análisis experimental, con tanques a escala, de las geometrías más frecuentes, junto con la propuesta de una metodología de simulación de la interacción fluido-vehículo, basada en el acoplamiento entre un modelo obtenido mediante una analogía mecánica que reproduce el efecto del oleaje, con un modelo del vehículo, empleando la técnica de multi-cuerpo, que ha sido validada experimentalmente. Para la obtención de los parámetros que la definen, se propone dos alternativas, la experimentación y estimación parámetros o el empleo la dinámica computacional de fluidos, basada en las ecuaciones de Navier-Stokes, incorporando la técnica de volumen de fluido para capturar la superficie libre. Se ofrecen resultados de ambas y su comparación. Finalmente, se han analizado las diferentes tipologías de maniobras existentes para la evaluación de la estabilidad lateral de los vehículos con ensayos dinámicos, calificando y cuantificando su equivalencia.
Resumo:
El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.
Resumo:
El actual proyecto consiste en la creación de una interfaz gráfica de usuario (GUI) en entorno de MATLAB que realice una representación gráfica de la base de datos de HRTF (Head-Related Transfer Function). La función de transferencia de la cabeza es una herramienta muy útil en el estudio de la capacidad del ser humano para percibir su entorno sonoro, además de la habilidad de éste en la localización de fuentes sonoras en el espacio que le rodea. La HRTF biaural (terminología para referirse al conjunto de HRTF del oído izquierdo y del oído derecho) en sí misma, posee información de especial interés ya que las diferencias entre las HRTF de cada oído, conceden la información que nuestro sistema de audición utiliza en la percepción del campo sonoro. Por ello, la funcionalidad de la interfaz gráfica creada presenta gran provecho dentro del estudio de este campo. Las diferencias interaurales se caracterizan en amplitud y en tiempo, variando en función de la frecuencia. Mediante la transformada inversa de Fourier de la señal HRTF, se obtiene la repuesta al impulso de la cabeza, es decir, la HRIR (Head-Related Impulse Response). La cual, además de tener una gran utilidad en la creación de software o dispositivos de generación de sonido envolvente, se utiliza para obtener las diferencias ITD (Interaural Time Difference) e ILD (Interaural Time Difference), comúnmente denominados “parámetros de localización espacial”. La base de datos de HRTF contiene la información biaural de diferentes puntos de ubicación de la fuente sonora, formando una red de coordenadas esféricas que envuelve la cabeza del sujeto. Dicha red, según las medidas realizadas en la cámara anecoica de la EUITT (Escuela Universitaria de Ingeniería Técnica de Telecomunicación), presenta una precisión en elevación de 10º y en azimut de 5º. Los receptores son dos micrófonos alojados en el maniquí acústico llamado HATS (Hats and Torso Simulator) modelo 4100D de Brüel&Kjaer. Éste posee las características físicas que influyen en la percepción del entorno como son las formas del pabellón auditivo (pinna), de la cabeza, del cuello y del torso humano. Será necesario realizar los cálculos de interpolación para todos aquellos puntos no contenidos en la base de datos HRTF, este proceso es sumamente importante no solo para potenciar la capacidad de la misma sino por su utilidad para la comparación entre otras bases de datos existentes en el estudio de este ámbito. La interfaz gráfica de usuario está concebida para un manejo sencillo, claro y predecible, a la vez que interactivo. Desde el primer boceto del programa se ha tenido clara su filosofía, impuesta por las necesidades de un usuario que busca una herramienta práctica y de manejo intuitivo. Su diseño de una sola ventana reúne tanto los componentes de obtención de datos como los que hacen posible la representación gráfica de las HRTF, las HRIR y los parámetros de localización espacial, ITD e ILD. El usuario podrá ir alternando las representaciones gráficas a la vez que introduce las coordenadas de los puntos que desea visualizar, definidas por phi (elevación) y theta (azimut). Esta faceta de la interfaz es la que le otorga una gran facilidad de acceso y lectura de la información representada en ella. Además, el usuario puede introducir valores incluidos en la base de datos o valores intermedios a estos, de esta manera, se indica a la interfaz la necesidad de realizar la interpolación de los mismos. El método de interpolación escogido es el de la ponderación de la distancia inversa entre puntos. Dependiendo de los valores introducidos por el usuario se realizará una interpolación de dos o cuatro puntos, siendo éstos limítrofes al valor introducido, ya sea de phi o theta. Para añadir versatilidad a la interfaz gráfica de usuario, se ha añadido la opción de generar archivos de salida en forma de imagen de las gráficas representadas, de tal forma que el usuario pueda extraer los datos que le interese para cualquier valor de phi y theta. Se completa el presente proyecto fin de carrera con un trabajo de investigación y estudio comparativo de la función y la aplicación de las bases de datos de HRTF dentro del marco científico y de investigación. Esto ha hecho posible concentrar información relacionada a través de revistas científicas de investigación como la JAES (Journal of the Audio Engineering Society) o la ASA (Acoustical Society of America), además, del IEEE ( Institute of Electrical and Electronics Engineers) o la “Web of knowledge” entre otras. Además de realizar la búsqueda en estas fuentes, se ha optado por vías de información más comunes como Google Académico o el portal de acceso “Ingenio” a los todos los recursos electrónicos contenidos en la base de datos de la universidad. El estudio genera una ampliación en el conocimiento de la labor práctica de las HRTF. La mayoría de los estudios enfocan sus esfuerzos en mejorar la percepción del evento sonoro mediante su simulación en la escucha estéreo o multicanal. A partir de las HRTF, esto es posible mediante el análisis y el cálculo de datos como pueden ser las regresiones, siendo éstas muy útiles en la predicción de una medida basándose en la información de la actual. Otro campo de especial interés es el de la generación de sonido 3D. Mediante la base de datos HRTF es posible la simulación de una señal biaural. Se han diseñado algoritmos que son implementados en dispositivos DSP, de tal manera que por medio de retardos interaurales y de diferencias espectrales es posible llegar a un resultado óptimo de sonido envolvente, sin olvidar la importancia de los efectos de reverberación para conseguir un efecto creíble de sonido envolvente. Debido a la complejidad computacional que esto requiere, gran parte de los estudios coinciden en desarrollar sistemas más eficientes, llegando a objetivos tales como la generación de sonido 3D en tiempo real. ABSTRACT. This project involves the creation of a Graphic User Interface (GUI) in the Matlab environment which creates a graphic representation of the HRTF (Head-Related Transfer Function) database. The head transfer function is a very useful tool in the study of the capacity of human beings to perceive their sound environment, as well as their ability to localise sound sources in the area surrounding them. The binaural HRTF (terminology which refers to the HRTF group of the left and right ear) in itself possesses information of special interest seeing that the differences between the HRTF of each ear admits the information that our system of hearing uses in the perception of each sound field. For this reason, the functionality of the graphic interface created presents great benefits within the study of this field. The interaural differences are characterised in space and in time, varying depending on the frequency. By means of Fourier's transformed inverse of the HRTF signal, the response to the head impulse is obtained, in other words, the HRIR (Head-Related Impulse Response). This, as well as having a great use in the creation of software or surround sound generating devices, is used to obtain ITD differences (Interaural Time Difference) and ILD (Interaural Time Difference), commonly named “spatial localisation parameters”. The HRTF database contains the binaural information of different points of sound source location, forming a network of spherical coordinates which surround the subject's head. This network, according to the measures carried out in the anechoic chamber at the EUITT (School of Telecommunications Engineering) gives a precision in elevation of 10º and in azimuth of 5º. The receivers are two microphones placed on the acoustic mannequin called HATS (Hats and Torso Simulator) Brüel&Kjaer model 4100D. This has the physical characteristics which affect the perception of the surroundings which are the forms of the auricle (pinna), the head, neck and human torso. It will be necessary to make interpolation calculations for all those points which are not contained the HRTF database. This process is extremely important not only to strengthen the database's capacity but also for its usefulness in making comparisons with other databases that exist in the study of this field. The graphic user interface is conceived for a simple, clear and predictable use which is also interactive. Since the first outline of the program, its philosophy has been clear, based on the needs of a user who requires a practical tool with an intuitive use. Its design with only one window unites not only the components which obtain data but also those which make the graphic representation of the HRTFs possible, the hrir and the ITD and ILD spatial location parameters. The user will be able to alternate the graphic representations at the same time as entering the point coordinates that they wish to display, defined by phi (elevation) and theta (azimuth). The facet of the interface is what provides the great ease of access and reading of the information displayed on it. In addition, the user can enter values included in the database or values which are intermediate to these. It is, likewise, indicated to the interface the need to carry out the interpolation of these values. The interpolation method is the deliberation of the inverse distance between points. Depending on the values entered by the user, an interpolation of two or four points will be carried out, with these being adjacent to the entered value, whether that is phi or theta. To add versatility to the graphic user interface, the option of generating output files in the form of an image of the graphics displayed has been added. This is so that the user may extract the information that interests them for any phi and theta value. This final project is completed with a research and comparative study essay on the function and application of HRTF databases within the scientific and research framework. It has been possible to collate related information by means of scientific research magazines such as the JAES (Journal of the Audio Engineering Society), the ASA (Acoustical Society of America) as well as the IEEE (Institute of Electrical and Electronics Engineers) and the “Web of knowledge” amongst others. In addition to carrying out research with these sources, I also opted to use more common sources of information such as Academic Google and the “Ingenio” point of entry to all the electronic resources contained on the university databases. The study generates an expansion in the knowledge of the practical work of the HRTF. The majority of studies focus their efforts on improving the perception of the sound event by means of its simulation in stereo or multichannel listening. With the HRTFs, this is possible by means of analysis and calculation of data as can be the regressions. These are very useful in the prediction of a measure being based on the current information. Another field of special interest is that of the generation of 3D sound. Through HRTF databases it is possible to simulate the binaural signal. Algorithms have been designed which are implemented in DSP devices, in such a way that by means of interaural delays and wavelength differences it is possible to achieve an excellent result of surround sound, without forgetting the importance of the effects of reverberation to achieve a believable effect of surround sound. Due to the computational complexity that this requires, a great many studies agree on the development of more efficient systems which achieve objectives such as the generation of 3D sound in real time.
Resumo:
Fernando Saéz Vacas escribe sobre tecnología con mirada renacentista, amplia de intereses y saberes. Vivimos en un mundo hiper especializado, donde se cumple la premonición de Machado: "Nadie sabe ya lo que se sabe, pero todo el mundo sabe que de todo hay quien sepa". Necesitamos pensadores que integren tanto saber disperso y fragmentado. Sáez Vacas lo consigue. Devuelve la técnica al mundo de la gran cultura, sin demonizarla y sin divinizarla. Cree que necesitamos conocer su lado brillante y su lado oscuro. Su estudio del efecto 2000 es un ejemplo de perspicacia y ponderación. La infotecnología resuelve problemas y plantea problemas. En este momento nuestras relaciones con la realidad se han hecho altamente ambiguas. La técnica se ha convertido en la gran interfaz. La realidad se desmaterializa progresivamente. El ser humano adquiere una fluidez nueva, que no sabemos bien como evaluar. Sáez Vacas, preocupado por la educación, piensa que el aprendizaje permanente puede crear un sujeto con yoes múltiples. Lo llama con un nombre apabullante: "Mamífero Multimutante Multinootópico", y se pregunta: ¿Cómo podemos educar a un individuo así? La tendencia utilitaria que prevalece en el mundo educativo es mala solución.
Resumo:
Los métodos numéricos, como es sabido, son en muchas ocasiones altamente sensibles a las situaciones singulares que se presentan en diversos problemas de ingeniería, pudiendo dar lugar a errores, locales o globales, que invalidan los resultados proporcionados por un modelo que, en principio, se supone bien planteado. Tal es el caso de la aplicación del Método de los Elementos de Contorno a problemas dinámicos en medios incompresibles, donde el Coeficiente de Poisson se aproxima a su valor límite de 0,5. En estas circunstancias, según el modelo clásico de propagación de ondas, la velocidad de propagación de las ondas longitudinales (ondas P) tiende a infinito, lo que hace inoperantes las expresiones explícitas de la solución fundamental (o función de ponderación) tal como aparecen en la literatura técnica. El recurso de aproximar el valor de dicho Coeficiente como 0,499 ... conduce en ocasiones a resultados insuficientemente exactos cuando no manifiestamente erróneos, especialmente cuando se trabaja con simple precisión, como consecuencia de los errores de truncamiento en expresiones que, en el límite, serían de la forma: (cero)x(infinito). En el presente artículo se muestran los resultados analíticos de las diversas formas indeterminadas que aparecen en la aplicación del método para el caso aludido. Los resultados son de aplicación a diversos problemas de fluidos, así como a problemas de interacción suelo-estructura en terrenos arcillosos. Se presenta un ejemplo de aplicación que muestra la convergencia de la solución obtenida por el procedimiento propuesto, en contraste con la no-convergencia a que conduce la aproximación del Coeficiente de Poisson como 0,499…