926 resultados para INFORMACION
Resumo:
En una Web dominada por los medios sociales para la información, la relación y la comunicación, la dinámica que se establece entre contenidos, personas y tecnología cambia radicalmente. Ante la relevancia que cobra el contenido generado por usuarios en este escenario –esencialmente relacional-, la localización de las mejores fuentes de información requiere sistemas recomendadores que incorporen la naturaleza social de una Web que va más allá de la primigenia internet. Se revisan las aproximaciones actuales a los procesos de recomendación, poniéndolas en el contexto de las tendencias asociadas al fenómeno del social computing. Asimismo, se destacan algunas líneas de actuación en la redefinición del problema de la recomendación en un panorama dominado por las redes sociales y la generación de contenidos por los usuarios
Resumo:
El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.
Resumo:
Los puentes con sección mixta de hormigon y acero son, a dia de hoy, una de las tipologias mas recurrentes por las diversas, y ya conocidas, ventajas que ofrecen en determinadas circunstancias. Resulta por tanto necesario, y de interes, estar actualizado y conocer el marco normativo que rige el diseño y proyecto de este tipo de puentes. El planteamiento normativo referente al desarrollo de proyectos de puentes mixtos se encuentra actualmente en una fase de transicion durante la cual se llevaria a cabo la redaccion de una nueva “Instruccion para el Proyecto de Puentes Mixtos”, la cual incorporaria directamente las prescripciones del Eurocodigo 4. Dicha instruccion sustituira a las actualmente vigentes “Recomendaciones para el Proyecto de Puentes Mixtos para Carretera (RPX-95)”. Por otra parte, en el ano 2011, se incorpora a la reglamentacion la “Instruccion de Acero Estructural (EAE)” en la cual se establecen criterios de ambito comun con los dos documentos anteriormente citados. La coyuntura normativa descrita en el parrafo anterior hace que resulte de gran interes realizar un estudio comparativo entre las normativas actualmente vigentes: - Eurocodigo 4: “Proyecto de estructuras mixtas de acero y hormigon”-RPX-95: “Recomendaciones para el Proyecto de Puentes Mixtos para Carretera”-EAE: “Instruccion de Acero Estructural”. Uno de los principales objetivos de este estudio es poder extraer conclusiones interesantes de cara a la implementacion definitiva de los Eurocodigos en el marco normativo espanol, hecho que se preve que se produzca en un futuro cercano, alrededor del ano 2018. Dentro de la amplia casuistica que hace referencia al proyecto de puentes mixtos, el presente estudio se centra en las metodologias de analisis referentes a la rigidizacion de fondos comprimidos y almas. Por tanto, se analizaran y compararan los criterios relacionados con los Estados Limites ultimos de piezas flectadas con seccion mixta y se estudiara como influyen los rigidizadores, tanto transversales como longitudinales, en dichos Estados Limites Ultimos. Concretamente los Estados Limites Ultimos que seran objetivo de estudio seran: Resistencia a Flexion y a Cortante de la seccion, y dimensionado de los Rigidizadores. El estudio de los ELU recientemente citados incluye el analisis de la diversa casuistica tipica de los puentes mixtos: fenomenos de inestabilidad en fondos comprimidos y almas, presencia de losa inferior de hormigon en secciones de momentos negativos, particularidades de la seccion cajon, etc. Se debe resaltar que las diversas normativas de estructuras mixtas de hormigon y acero remiten con asiduidad en varios de sus apartados a las normativas especificas para estos materiales, por ejemplo al Eurocodigo 3 o al EHE. Por lo tanto el estudio de las secciones mixtas comporta tambien un buen conocimiento y dominio de las normativas que hacen referencia al hormigon y al acero por separado. Formalmente, el cuerpo del trabajo se estructura en tres partes bien diferenciadas: -CAPITULO III: Estudio critico comparativo -CAPITULO IV: Aplicacion practica de Eurocodigo y RPX-95 -CAPITULO V: Desarrollo de herramienta de calculo para la verificacion de rigidizadores transversales segun el Eurocodigo 4. En el CAPITULO III se lleva a cabo un analisis comparativo de la metodologia de analisis, condiciones y limitaciones que proponen cada una de las normativas, destacando las semejanzas y diferencias existentes entre ellas. Este apartado es basicamente teorico y tiene como objetivo observar las diferencias principales que existen y discutir el porque de estas, para los diversos criterios de Estado Limite Ultimo estudiados. Un aspecto interesante desde el punto de vista practico del diseño y proyecto de puentes es observar si las normativas son mas o menos conservadoras en las verificaciones que proponen y las limitaciones que establecen, ya que esto afecta directamente al coste del puente. A continuacion, en el CAPITULO IV, se realiza una aplicacion practica de algunos de los aspectos de Estado Limite ultimo estudiados en el CAPITULO III. Se aplican las metodologias de las dos normativas estudiadas con mayor profundidad, Eurocodigo y RPX-95, a diversas secciones tipo. De esta manera, se podran complementar y corroborar con datos numericos, las conclusiones extraidas del analisis comparativo del capitulo anterior. Por ultimo, en el CAPITULO V, se expone de manera detallada la informacion acerca de la hoja de Excel en que se ha implementado la metodologia de calculo para la verificacion de rigidizadores transversales segun los Eurocodigos. Esta hoja de calculo tiene como objetivo ser la version actualizada de ACE-003-Comprobación rigidizadores en cajones y perfiles en "H", una hoja de calculo utilizada e implementada en MC2 Estudio de Ingeniería S.L. en base a las directrices dictadas por la “Recomendaciones para el Proyecto de Puentes Mixtos para Carretera”.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
El abandono universitario es un problema que siempre ha afectado a las distintas universidades públicas. La Universidad Politécnica de Madrid, en concreto la Escuela Técnica Superior de Ingenieros Informáticos, pretende reducir dicho abandono aplicando técnicas de Data Mining para detectar aquellos alumnos que abandonan antes de que lo hagan. Este proyecto, a través de la metodología CRISP-DM (CRoss Industry Standard Process for Data Mining) y con los datos obtenidos del SIIU (Sistema Integrado de Información Universitaria), tiene como fin identificar a los alumnos que abandonan el primer añoo para poder aplicar distintas políticas en ellos y así evitarlo. ---ABSTRACT---Early university abandonment is a problem which has affected different public universities. The Universidad Polit´ecnica de Madrid (Polytechnic University of Madrid), inparticular the Escuela Técnica Superior de Ingenieros Informáticos (Computer Science Engineering School), wants to reduce this abandonment rate using Data Mining techniques to find students who are likely to leave before they do. The purpose of this project, through CRISP-DM (CRoss Industry Standard Process for Data Mining) methodology and using the data from SIIU (Sistema Integrado de Informaci´on Universitaria), is to identify those students who leave the first year in order to apply different policies and avoid it.
Resumo:
Se analizan los principales defectos de mecanización de la madera y los factores de que dependen. Así mismo se establecen las principales técnicas de evaluación de la rugosidad de la madera, y como la tendencia tecnológica busca desarrollar sistemas en tiempo real, de forma que de manera automática las piezas demasiado defectuosas sean rechazadas mientras que el resto sigan su proceso de acabado, aplicando la cantidad de producto adecuado a la calidad superficial individual de cada pieza o incluso de cada punto de la pieza.
Resumo:
Este trabalho analisa os caminhos percorridos pelas Instituições de Ensino Superior na utilização da Internet como intermediadora da relação com os veículos de comunicação. O objeto de estudo são as Salas de Imprensa Virtuais de seis universidades paulistas e, a partir da descrição e análise desses espaços, buscou-se destacar se estão sendo amplamente utilizados em todo seu potencial comunicativo. A principal motivação deste trabalho foi sanar uma lacuna quanto a um panorama de como esta ferramenta de comunicação está sendo utilizada no País a partir da experiência universitária. As Salas de Imprensa foram investigadas a partir de Estudo de Casos Múltiplos, com análise comparativa de seus conteúdos e vivências, além de informações coletadas em entrevistas com especialistas, equipes de Comunicação e reitores das Universidades. O diagnóstico da experiência universitária evidencia muitos equívocos na utilização dessa ferramenta, principalmente quanto à interatividade, pois muitos deles não disponibilizam serviços de interação com o jornalista via web. Os resultados deste estudo alertam para a implementação das Salas de Imprensa Virtuais com toda a potencialidade que a Internet oferece.(AU)
Resumo:
Este trabalho analisa os caminhos percorridos pelas Instituições de Ensino Superior na utilização da Internet como intermediadora da relação com os veículos de comunicação. O objeto de estudo são as Salas de Imprensa Virtuais de seis universidades paulistas e, a partir da descrição e análise desses espaços, buscou-se destacar se estão sendo amplamente utilizados em todo seu potencial comunicativo. A principal motivação deste trabalho foi sanar uma lacuna quanto a um panorama de como esta ferramenta de comunicação está sendo utilizada no País a partir da experiência universitária. As Salas de Imprensa foram investigadas a partir de Estudo de Casos Múltiplos, com análise comparativa de seus conteúdos e vivências, além de informações coletadas em entrevistas com especialistas, equipes de Comunicação e reitores das Universidades. O diagnóstico da experiência universitária evidencia muitos equívocos na utilização dessa ferramenta, principalmente quanto à interatividade, pois muitos deles não disponibilizam serviços de interação com o jornalista via web. Os resultados deste estudo alertam para a implementação das Salas de Imprensa Virtuais com toda a potencialidade que a Internet oferece.(AU)
Resumo:
Existe abundante evidencia científica del papel de la Dieta Mediterránea tradicional y de sus componentes en la Salud y la Sostenibiliad. La Dieta Mediterránea es un dieta sana, nutritiva y palatable, relacionada con la prevención de las enfermedades crónicas y con una menor morbi-mortalidad y mayor esperanza y calidad de vida. Pero no sólo es un modelo de alimentación sana para el hombre sino también para el medio ambiente. Por estar basada fundamentalmente en el consumo de alimentos de origen vegetal es también una dieta sostenible y respetuosa con el medio ambiente.
Resumo:
El desarrollo de la Floricultura en Córdoba puede constituirse como una actividad productiva sustentable que contribuya a la generación de empleo y cubra la demanda de un mercado local actualmente satisfecho por producciones distantes de nuestra Provincia, especialmente Buenos Aires, Rosario y Mendoza. Como asi también por importaciones provenientes de Ecuador, Colombia y Brasil, en periodos de alta demanda y baja producción en el pais. Una limitante para el inicio de esta actividad productiva la constituye la falta de estudios con rigor científico que permitan la correcta elección de especies y variedades con altos rendimientos en nuestras condiciones ambientales. En tal sentido la Cátedra de Floricultura de la Universidad Nacional de Córdoba, desde hace 15 años aborda la tematica, abarcando los aspectos tecnológicos, de manejo y comercilalizacion de numerosas especies florales para corte entre ellas: Clavel. Rosa, Crisantemo, Lisianthus, Gipsofila, Fresia, Tulipán, Girasol, Alstromelia, Antirrhinum, Gladiolus tristis entre otras. Esta constante investigación ha sido presentada en congresos de la especialidad y publicados en los correspondientes ámbitos científicos. Sin embargo al momento no existe un documento en soporte papel que la concentre de manera didáctica para el lenguaje del productor y los receptores interesados en esta informacion. El acercamiento de toda esta experiencia al sector productivo y/potencial productor, es una responsabilidad de los científicos que trabajamos incesantemente para resolver problematicas concretas del sector. Entre los grupos contactados interesados en recibir la información, figuran productores independientes, ya que no hay una organización que los agrupe, una escuela que tiene orientación en Ciencias Naturales, Una comercializadora de flores, la carrera de Licenciatura en Administracion Agragria de la Universidad Siglo XXI y la Tecnicatura en Floricultura y Jardinería de la FCA-UNC de reciente inauguración. La divulgación escrita con imágenes y resultados de pruebas de variedades, será una herramienta de mucha utilidad para el productor actual que lo ayudara en elección de variedades que fueron probadas y que funcionan en las condiciones agroecológicas de Córdoba
Resumo:
La elaboración de esta propuesta surge a raíz de la aparición de casos de equinos afectados y muertos por el Virus del Oeste del Nilo (VON) en la Provincia de Córdoba, y del re-surgimiento de un brote de Arteritis viral equina (AVE) en la provincia de Buenos Aires y de Córdoba en el corriente año 2010. Estas dos enfermedades consideradas exóticas históricamente para la provincia de Córdoba (y la Argentina) fueron diagnosticadas en el territorio provincial recientemente; el VON en 2010 y la AVE en 2000/1 y de nuevo en 2010. Está claro que existe una gran desinformación a nivel de productores, trabajadores y profesionales de la industria equina respecto a la existencia y forma de enfrentarse a éstas y otras enfermedades infecciosas que afectan a los equinos y en algunos casos también a los humanos. Es más, hemos podido comprobar cómo las autoridades sanitarias oficiales toman a veces medidas desacertadas frente al control de estas nuevas enfermedades, suponemos por falta de informacion. Además como docente de la asignatura "enfermedades transmisibles y toxicas de los equinos" por más de 15 años puedo asegurar que existe una carencia marcada de material didáctico y bibliográfico en español. En Córdoba existen importantes centros de reproducción equina, que concentran varios centenares de equinos de alto valor genético y de distintos orígenes geográficos como así también numerosos productores de equinos de distintas razas. A través de las consultas recibidas en algunos casos percibimos el grado de desinformación y sentimos la necesidad de difundir información necesaria respecto a las muchas enfermedades infecciosas que pueden afectar a los equinos. Los cambios climáticos, la globalización del mercado de semen, embriones y reproductores equinos, el tránsito de equinos a los distintos eventos deportivos o de recreación representan un riesgo significativo para la transmisión de enfermedades. Dos importantes centros equinos reproductivos ubicados en el sur de la provincia nos han manifestado su necesidad de conocer y estar actualizados sobre las enfermedades infecciosas que pueden y de hecho impactan sobre sus poblaciones equinas, Estos centros manejan poblaciones de yeguas donantes de embriones que representan una elit genetica de equinos de Salto y Polo principalmente, ademas a grandes poblaciones de yeguas receptoras de embriones que se utilizan como medio para la produccion de potrillos de alto valor. En centros de este tipo, la prevencion y control de enfermedades infecciosas especialmente aquellas potencialmente letales es critica, ya que su incidencia podria tener un gran impacto negativo y con las consecuentes pérdidas económicas para no solo estos centros sino tambien para sus clientes y para la provincia. Asimismo, como resultado de mi asistencia a la mesa provincial equina y el dialogo con personal de la Secretaría de Ganadería del Ministerio de Agricultura ganaderia y Alimentos de la Pcia, surgió la idea de elaborar folletos informativos para cada una de las principales enfermedades infecciosas para su distribucion en forma impresa en los distintos eventos hípicos de la provincia y en forma digital desde la pagina web de la Secretaría.
Resumo:
Kjo Është një udhëzues për burimet e informacionit mbi Republikën e Shqipërisë, me lidhje (hyperlinks) për informacion brenda në ‘Burimet Europiane Online’ (ESO) dhe në faqet e interneti jasht rrjetit ESO [A guide to information sources on the Republic of Albania, with hyperlinks to information within European Sources Online and on external websites.]