49 resultados para Técnicas de trabajo
em Universidad Politécnica de Madrid
Resumo:
La integración del sistema universitario español en el Espacio Europeo de Educación Superior exige una serie de propuestas concretas que desarrollen los distintos elementos conceptuales. A medida que avancemos hacia la implementación del proceso de Bolonia hará falta contemplar un nuevo paradigma de enseñanza/aprendizaje. Estos nuevos enfoques demandan nuevas formas de plantear la docencia, resaltando el protagonismo y la responsabilidad del estudiante. La utilización de las WebQuest en el ámbito universitario constituye un recurso didáctico en plena consonancia no solo con la teoría del constructivismo sino con el proceso de convergencia europea. La WebQuest es un tipo de actividad didáctica basada en técnicas de trabajo en grupo por proyectos y en la investigación, como actividades básicas de enseñanza/aprendizaje. A través de este artículo pretendemos presentar los desafíos que se presentan a los profesores de Lenguas para Fines Específicos, y hacer una reflexión teórica sobre este recurso didáctico y su aplicación en el currículo de lengua inglesa de ingenieros de Minas de la Universidad Politécnica de Madrid.
Resumo:
La realización de este proyecto, pretende mostrar la metodología del entrenamiento en un deporte como el voleibol sentado para personas que presentan una discapacidad. En un principio se explicará el marco teórico del deporte y luego los diferentes técnicas de trabajo que son necesarios de utilizar. También pretendo dar una respuesta al por qué de a la falta de actividad de este deporte en nuestro país y diferentes formas de fomentar este deporte en colegios y clubes.
Resumo:
Uno de los aspectos más influyentes y determinantes que existen en la arquitectura vernácula es, además de las tendencias constructivas tradicionales y del clima de cada lugar, el material dominante que el propio terreno proporciona a los maestros artesanales que tan sabiamente disponen en los espacios rurales para levantar aquellas edificaciones que han ayudado durante tantos años a desarrollar las actividades del campo. La región de Tierra de Campos está dominada por el barro, mientras que en la comarca de Montes Torozos lo hace la piedra caliza. Ambas ofrecen todavía numerosas muestras de construcciones humildes y utilitarias que se han integrado en el paisaje, como singular seña de identidad de la región. Sin embargo, el abandono de la población, y el cambio en las técnicas del trabajo del campo, están favoreciendo la pérdida de muchas construcciones y, con ellas, parte de la materialidad de la memoria histórica de la zona. Es necesario llamar la atención sobre esta pérdida patrimonial, y aprovechar las construcciones que permanecen para estudiar sus valores y conocer sus técnicas constructivas. Gracias a varias expediciones realizadas por estas dos áreas en los últimos tres años, se ha podido apreciar que ambas regiones ofrecen soluciones tipológicas similares para estas construcciones, generalmente abovedas o cupuliformes, a pesar de sus diferentes características naturales (topográficas, geológicas, etc…). Observamos también una serie de elementos que nos hacen pensar que entre ambas zonas se han producido influencias y trasvases importantes a la hora de edificar, lo que ha permitido a ambas tradiciones (la de construir con tierra y la de construir con piedra) beneficiarse técnicamente y enriquecerse artísticamente. Tras el análisis de las más de cien edificaciones de este tipo, podemos asegurar que la polaridad existente entre dos materiales muy diferentes, y bien característicos para cada una de estas dos comarcas, no está radicalmente diferenciada, sino que existe una graduación entre la construcción de piedra y barro, de tipo mixto y localizada en la franja limítrofe entre ambas, que es digna de estudio y que puede ayudarnos en una clasificación evolutiva. En esta comunicación se presenta una descripción tipológica de las construcciones rurales auxiliares conocidas como chozos y casetas, en función de la composición formal y del material dominante, y se marcan los principales valores arquitectónicos que singularizan la importancia de este patrimonio rural en vías de desaparición. Se hace especial énfasis en la tecnología constructiva, hasta ahora insuficientemente descrita. Grandes trabajos como los realizados por Carlos Flores o Luis Feduchi, u otros más contemporáneos como los de Carlos Carricajo, García Grinda o Alonso Ponga, han puesto de manifiesto la importancia de estos elementos para la arquitectura tradicional de Castilla y León. Sin embargo, no se han producido grandes observaciones ni estudios profundos en esta línea, por lo que el trabajo realizado cubre un vacío del conocimiento de la arquitectura popular castellanoleonesa.
Resumo:
Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.
Resumo:
Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.
Resumo:
El proyecto de rehabilitación de una de las naves del complejo fabril de la industria química ?CROS? en Valencia se llevó a cabo con el criterio de mantener, en la medida de lo posible, los elementos estructurales presentes en la nave. Con este objetivo se realizaron una serie de ensayos no destructivos (END) in situ. Estos ensayos permitieron evaluar la calidad de la madera, determinar qué elementos estructurales debían ser sustituidos y comprobar la aptitud de los que iban a ser reutilizados. Los END empleados en este estudio fueron los siguientes: (1) Identificación de la especie por técnicas anatómicas, (2) Clasificación resistente por método visual, (3) Estimación de humedad por la técnica de resistencia eléctrica; (4) Obtención de velocidades de propagación ultrasónicas (5) Resistógrafía y (6) Alteración de la propagación de ondas electromagnéticas por medio de Georradar. Para la calibración de estos END se tomó una muestra de piezas y se hicieron ensayos destructivos bajo condiciones controladas en laboratorio. En el trabajo que aquí se presenta se muestra la metodología empleada durante el proceso de toma de datos, de análisis de resultados y de cruce de la información obtenida a partir de cada uno de los ensayos hasta llegar a un diagnóstico para los elementos analizados. The assessment of structural timber was requested in the rehabilitation project of the Naves of the chemical industry "CROS". The criterion was to maintain as much as possible timber of the structure and to make only partial replacements. In order not to damage the existing structure and to assess the quality of the existing timber, a series of non-destructive testing (NDT) in the entire structure were performed: (1) Identification of the species by anatomical techniques, (2) Strength grading by visual method, (3) Estimation of moisture content by the technique of electrical resistance, (4) Acquisition of ultrasonic propagation velocities (5) Resistography and (6) Record of the propagation of electromagnetic waves by means of Ground-penetrating radar. Following, a sample group was chose to carry out destructive testing in the lab and compare the NDT results with those obtained with the standard UNE-EN408 (modules of strength, stiffness and density). In the present work, the results provided by each of the NDT techniques are detailed and above all, what is more important, the validity of these after they have been contrasted with the destructive standard tests.
Resumo:
En la medida que crece la importancia de las organizaciones de servicio en las economías y sus resultados son cada vez más determinantes en la calidad de vida de la población, aumenta el interés tanto en el estudio de los procesos de innovación, como en el desarrollo y aplicación de técnicas, herramientas y sistemas que faciliten el desarrollo de proyectos más complejos. El objetivo de este trabajo es entender la relación que existe entre el desarrollo del proceso de innovación en las organizaciones de servicio y el uso de técnicas y herramientas. El trabajo se inicia con la revisión de los distintos modelos propuestos para el estudio de los procesos de innovación. Para efectos de este trabajo se seleccionó el modelo de estudio de los procesos de innovación desarrollado por la Fundación COTEC, también conocido como TEMAGUIDE, y se elaboró un instrumento de investigación (cuestionario) que incluye preguntas relacionadas tanto con el nivel de desarrollo de las distintas fases del proceso de innovación, como con el uso de técnicas y herramientas en cada una de ellas. El trabajo propone dos índices, el primero mide el grado de desarrollo del proceso de innovación, mientras que el segundo evalúa el uso de herramientas y técnicas de innovación. Para alcanzar el objetivo se realizó un estudio de campo en los sectores salud (hospitales y clínicas privadas tipo A), comercio (cadena de tiendas) y educación (universidades con carreras de ingeniería) en Venezuela. De una población estimada de 124 organizaciones se obtuvo la respuesta de un total de treinta, grupo que es considerado representativo del conjunto de subsectores estudiados. Los resultados muestran una buena relación (R2=0,7883) entre el grado de desarrollo del proceso de innovación y el uso de técnicas y herramientas de innovación. El hecho de que una parte importante de las innovaciones desarrolladas por las organizaciones de servicio estudiadas son de carácter incremental y sus procesos se encuentran en la fase intermedia de desarrollo, posiblemente explican esta situación.
Resumo:
Las finalidades de esta tesina han sido varias y han venido unidas unas a otras o como consecuencia de ellas He pretendido como ya he dicho anteriormente» desmenuzar y estudiar la carrera de los 100 metros lisos tan profundamente como me fuera posible, para comprender las causas de las variaciones que tienen lugar tanto de velocidad y aceleración como frecuencia y amplitud a lo largo del hectómetro He intentado ver si las características de estas variaciones son distintas en cada carrera o por el contrario existen unos patrones comunes en todas ellas* ¿ Se puede correr un 100 m terminando a la máxima velocidad? ¿Se puede cambiar de ritmo? ¿Puede aplicarse una táctica independiente en cada carrera como pudiera suceder en una competición de 800 O 1500 m. o por el contrario ¿Hay que correr siempre de igual forma? Como consecuencia de todo esto, me he visto obligado a investigar todo lo que he podido sobre velocidad y sobre los 100 m concretamente y creo que el fruto obtenido ha sido máximo pues el trabajo realizado me sirvió para sedimentar ideas y aprender mucho sobre velocidad Además gracias a que me he visto obligado a profundizar sobre el tema, me he dado cuenta del enorme campo de investigación que se abre a raíz de este y que espero algún día con mejores medios poder continuar
Resumo:
La sociedad y el mundo en general, en cuanto a la integración social de todos, han ido evolucionando favorablemente. La accesibilidad hoy en día ya no es un hecho que preocupe a una minoría, sino cada vez son más las personas que se dedican a que este desarrollo vaya por el buen camino. En este trabajo lo que se pretende es recoger las condiciones que deben tenerse en cuenta al proyectar, y sobre todo, las características que debe cumplir el mobiliario que vamos a escoger para nuestro edificio, de forma que facilitemos el uso del mismo a todas las personas, sea cual sea su condición, de una forma lo más autónoma, segura y confortable posible. Se presenta como ejemplo el Edificio Multidepartamental de la Universidad de Alcalá de Henares, situado en Guadalajara, sobre el que estudiaremos, mediante un modelo de fichas técnicas de diagnóstico y control, el mobiliario de las aulas, de la cafetería, los puntos de información, los espacios higiénico-sanitarios, el mobiliario urbano exterior y la señalización y paneles informativos. El mobiliario debe estar situado de forma que no entorpezca la circulación de los usuarios del centro y éste, debe poder ser utilizado por todos ellos, estudiantes con y sin discapacidad, profesores, etc.… Debe existir suficiente espacio alrededor de mesas y sillas para maniobrar y permitir la aproximación frontal de las personas en sillas de ruedas, también se debe evaluar la accesibilidad en aseos y baños, máquinas expendedoras….
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
El estudio de materiales, especialmente biológicos, por medios no destructivos está adquiriendo una importancia creciente tanto en las aplicaciones científicas como industriales. Las ventajas económicas de los métodos no destructivos son múltiples. Existen numerosos procedimientos físicos capaces de extraer información detallada de las superficie de la madera con escaso o nulo tratamiento previo y mínima intrusión en el material. Entre los diversos métodos destacan las técnicas ópticas y las acústicas por su gran versatilidad, relativa sencillez y bajo coste. Esta tesis pretende establecer desde la aplicación de principios simples de física, de medición directa y superficial, a través del desarrollo de los algoritmos de decisión mas adecuados basados en la estadística, unas soluciones tecnológicas simples y en esencia, de coste mínimo, para su posible aplicación en la determinación de la especie y los defectos superficiales de la madera de cada muestra tratando, en la medida de lo posible, no alterar su geometría de trabajo. Los análisis desarrollados han sido los tres siguientes: El primer método óptico utiliza las propiedades de la luz dispersada por la superficie de la madera cuando es iluminada por un laser difuso. Esta dispersión produce un moteado luminoso (speckle) cuyas propiedades estadísticas permiten extraer propiedades muy precisas de la estructura tanto microscópica como macroscópica de la madera. El análisis de las propiedades espectrales de la luz laser dispersada genera ciertos patrones mas o menos regulares relacionados con la estructura anatómica, composición, procesado y textura superficial de la madera bajo estudio que ponen de manifiesto características del material o de la calidad de los procesos a los que ha sido sometido. El uso de este tipo de láseres implica también la posibilidad de realizar monitorizaciones de procesos industriales en tiempo real y a distancia sin interferir con otros sensores. La segunda técnica óptica que emplearemos hace uso del estudio estadístico y matemático de las propiedades de las imágenes digitales obtenidas de la superficie de la madera a través de un sistema de scanner de alta resolución. Después de aislar los detalles mas relevantes de las imágenes, diversos algoritmos de clasificacion automatica se encargan de generar bases de datos con las diversas especies de maderas a las que pertenecían las imágenes, junto con los márgenes de error de tales clasificaciones. Una parte fundamental de las herramientas de clasificacion se basa en el estudio preciso de las bandas de color de las diversas maderas. Finalmente, numerosas técnicas acústicas, tales como el análisis de pulsos por impacto acústico, permiten complementar y afinar los resultados obtenidos con los métodos ópticos descritos, identificando estructuras superficiales y profundas en la madera así como patologías o deformaciones, aspectos de especial utilidad en usos de la madera en estructuras. La utilidad de estas técnicas esta mas que demostrada en el campo industrial aun cuando su aplicación carece de la suficiente expansión debido a sus altos costes y falta de normalización de los procesos, lo cual hace que cada análisis no sea comparable con su teórico equivalente de mercado. En la actualidad gran parte de los esfuerzos de investigación tienden a dar por supuesto que la diferenciación entre especies es un mecanismo de reconocimiento propio del ser humano y concentran las tecnologías en la definición de parámetros físicos (módulos de elasticidad, conductividad eléctrica o acústica, etc.), utilizando aparatos muy costosos y en muchos casos complejos en su aplicación de campo. Abstract The study of materials, especially the biological ones, by non-destructive techniques is becoming increasingly important in both scientific and industrial applications. The economic advantages of non-destructive methods are multiple and clear due to the related costs and resources necessaries. There are many physical processes capable of extracting detailed information on the wood surface with little or no previous treatment and minimal intrusion into the material. Among the various methods stand out acoustic and optical techniques for their great versatility, relative simplicity and low cost. This thesis aims to establish from the application of simple principles of physics, surface direct measurement and through the development of the more appropriate decision algorithms based on statistics, a simple technological solutions with the minimum cost for possible application in determining the species and the wood surface defects of each sample. Looking for a reasonable accuracy without altering their work-location or properties is the main objetive. There are three different work lines: Empirical characterization of wood surfaces by means of iterative autocorrelation of laser speckle patterns: A simple and inexpensive method for the qualitative characterization of wood surfaces is presented. it is based on the iterative autocorrelation of laser speckle patterns produced by diffuse laser illumination of the wood surfaces. The method exploits the high spatial frequency content of speckle images. A similar approach with raw conventional photographs taken with ordinary light would be very difficult. A few iterations of the algorithm are necessary, typically three or four, in order to visualize the most important periodic features of the surface. The processed patterns help in the study of surface parameters, to design new scattering models and to classify the wood species. Fractal-based image enhancement techniques inspired by differential interference contrast microscopy: Differential interference contrast microscopy is a very powerful optical technique for microscopic imaging. Inspired by the physics of this type of microscope, we have developed a series of image processing algorithms aimed at the magnification, noise reduction, contrast enhancement and tissue analysis of biological samples. These algorithms use fractal convolution schemes which provide fast and accurate results with a performance comparable to the best present image enhancement algorithms. These techniques can be used as post processing tools for advanced microscopy or as a means to improve the performance of less expensive visualization instruments. Several examples of the use of these algorithms to visualize microscopic images of raw pine wood samples with a simple desktop scanner are provided. Wood species identification using stress-wave analysis in the audible range: Stress-wave analysis is a powerful and flexible technique to study mechanical properties of many materials. We present a simple technique to obtain information about the species of wood samples using stress-wave sounds in the audible range generated by collision with a small pendulum. Stress-wave analysis has been used for flaw detection and quality control for decades, but its use for material identification and classification is less cited in the literature. Accurate wood species identification is a time consuming task for highly trained human experts. For this reason, the development of cost effective techniques for automatic wood classification is a desirable goal. Our proposed approach is fully non-invasive and non-destructive, reducing significantly the cost and complexity of the identification and classification process.
Resumo:
En el trabajo que se expone en este artículo se planteó como objetivo realizar un análisis de las diferentes medidas de integración paisajística que se utilizan en las autopistas y autovías españolas. Para ello, se ha realizado una revisión bibliográfica de la normativa, la documentación científica, las guías y demás recomendaciones en este ámbito, y se ha efectuado un inventario fotográfico que recoge las medidas de restauración observadas en las diferentes vías. Gracias a una encuesta fotográfica y al posterior análisis de la percepción del público de las diferentes medidas de integración, se han identificado las variables medioambientales clave en la integración de las autopistas en el paisaje, los aspectos de diseño más adecuados y las medidas de integración paisajística más efectivas.
Resumo:
La subsidencia del terreno constituye un riesgo geotécnico capaz de afectar a amplias zonas del territorio. Este fenómeno puede producirse por la consolidación de los suelos finos de un sistema acuífero, disolución y colapso de materiales yesíferos, actuaciones humanes, etc. Muchas regiones del mundo, y gran parte de la geografía peninsular, pueden verse afectadas de manera significativa por este fenómeno. En este proyecto se pretende crear una metodología de trabajo que se pueda aplicar en cualquier ámbito geográfico para el control de las subsidencias. Para la realización de esta metodología se han tomado tres técnicas de auscultación de subsidencias, nivelación geométrica de precisión, nivelación GPS y DinSAR, y comparado sus pros y contras, así como las precisiones esperadas y el organigrama de trabajo. Para que se vea mejor la funcionalidad del sistema, se ha procedido a la implantación teórica del mismo en una localización al Norte de la ciudad de Madrid con un escenario realista. Abstract Subsidence is a geotechnical risk which can affect large countryside areas. This phenomenon may be produced by the consolidation of an aquifer system fine soils, dissolution and collapse of gypsum materials, human actions, etc. Many regions of the world, and much of the Iberian Peninsula, may be significantly affected by this condition. This project aims to create a methodology that can be applied in any geographical area to control subsidence. For this purpose, three subsidence monitoring techniques have been studied. Those are precision geometric leveling, GPS leveling and DInSAR. During the project, pros and cons as well as the precisions expected and work schedule have been studied and compared. The subsidence auscultation system has been theoretically implemented in a location. This location is a realistic stage located north of Madrid
Resumo:
La tomografía transaxial es una técnica radiográfica, que permite obtener imágenes de secciones bidimensionales, pertenecientes a estructuras tridimensionales mediante la exploración apropiada y utilizando algún tipo de radiación. En este trabajo se presentan los principios básicos de esta técnica, así como una visión general de los métodos de reconstrucción basados en el análisis de Fourier y sus respectivas versiones discretas con vista a su tratamiento en ordenadores digitales.
Resumo:
La tomografía transaxial es una técnica radiográfica, que permite obtener imágenes de secciones bidimensionales, pertenecientes a estructuras tridimensionales mediante la exploración apropiada y utilizando algún tipo de radiación. En este trabajo se presentan algunos de los algoritmos de reconstrucción, que tienen como característica común, el procesamiento de los datos directamente en el dominio real, excluyendo cualquier otro tipo de manipulación. Asimismo, se incluye una breve introducción a los métodos de reconstrucción analógicos.