18 resultados para TECNICAS DE EVALUACION

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La Ingenieria del Software Experimental (ISE) traslada a la Ingenieria del Software (IS) el paradigma experimental que se ha aplicado con exito en diversas disciplinas cientificas. El objetivo de la ISE es hacer de la construccion del software una actividad predecible gracias al conocimiento de las relaciones entre los procesos de produccion del software y los productos que se obtienen. Para avanzar en el paradigma experimental en IS no es suficiente aplicar las tecnicas de diseno experimental y el analisis estadistico de datos, sino que es necesario construir una metodologia (bien desde cero o adaptada de otras disciplinas) basada en los principios generales del experimentalismo. La motivacion principal de esta investigacion es trabajar en la adaptacion de un aspecto particular del paradigma experimental a la experimentacion en IS: la replicación. En ISE se han realizado varias replicaciones de experimentos, sin embargo, aun existe discusion sobre el modo mas adecuado de llevarlas a cabo. Algunas preguntas que surgen de esta discusion son: .se deben reutilizar los materiales del experimento base?, .la replicacion debe realizarse de forma independiente, o puede existir algun tipo de comunicacion entre experimentadores y replicadores?, .que elementos de la estructura del experimento a replicar pueden variarse y aun considerarse una replicacion? En esta investigacion se estudia el concepto de replicacion desde una perspectiva teorico-practica para su incorporacion a la ISE. En concreto, se persiguen los siguientes objetivos: 1) estudio del concepto de replicacion en distintas disciplinas cientificas para tener mayor comprension de su importacion a la ISE, 2) desarrollo de una tipologia de replicaciones que ayude a comprender tanto los diferentes tipos de replicacion que pueden llevarse a cabo en ISE, asi como el papel que cada uno de estos tipos desempena en la verificacion de resultados experimentales y 3) desarrollo de un marco conceptual con ideas clave para comparar conjuntos de replicaciones y obtener conocimiento de ellas que sea de utilidad tanto para el profesional como para el investigador. Para la evaluacion de las propuestas de esta tesis se usa un conjunto de 20 replicaciones de diversos autores donde entre otros aspectos se evalua la efectividad de tres tecnicas de evaluacion de software.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo presenta las experiencias y resultados obtenidos al aplicar tecnicas de planificacion de trayectorias para vehıculos aereos no tripulados con el objetivo doble de tomar imagenes aereas de alta resolucion para realizar mosaicos de cultivos asi como recoger los datos recopilados por motas o sistemas sensoriales inalambricos con capacidad de crear y gestionar redes. Dichas redes son utilizadas para la monitorizacion y evaluacion de tendencias en variables como la temperatura o humedad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El rol docente tiene dos aspectos fundamentales: facilitar el aprendizaje y evaluar la adquisición de éste por parte de los educandos. En los últimos años, debido fundamentalmente a la creación del nuevo Espacio Europeo de Educación Superior (EEES), se ha discutido largamente en el entorno universitario acerca de la conveniencia de cambiar las metodologías, tanto en la parte de transmisión del conocimiento como en las labores de evaluación. Más allá de cambiar el lenguaje universitario, adaptándolo a la terminología pedagógica de mediados del siglo XX, este proceso no parece haber generado en la Universidad Politécnica de Madrid, en lo sucesivo UPM, cambios efectivos en lo que se refiere a la transmisión del conocimiento. Sin embargo, los métodos de evaluación sí han cambiado apreciablemente en los últimos años.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo propone cómo abordar un problema creciente en las escuelas técnicas como es la masificación de los cursos. Para ello describe una serie de parámetros de influencia representativos y aspectos operativos aplicables a la impartición de prácticas de laboratorio en asignaturas que contienen una base predominantemente tecnológica. Se pretende que los conceptos e ideas aportadas puedan servir como base para la implantación de nuevas prácticas o bien para la adaptación de prácticas ya existentes, intentado, en la medida de lo posible, una formulación conceptual que resulte aplicable a todas aquellas asignaturas o disciplinas en las que la aplicación práctica de los conceptos estudiados suponga una parte esencial de las enseñanzas y que tengan un alto número de alumnos. La utilización de las Tecnologías de la Información y la Comunicación (TIC) debe verse como una importante fuente de recursos de apoyo a la actividad docente de prácticas, ya que favorece el acceso individual de forma simultánea, pero en ningún caso debe suponer la sustitución de la actividad presencial del alumno en laboratorio, que es esencial para la consecución de los objetivos formativos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral se centra en el estudio de dos yacimientos de macrorrestos fosiles vegetales, en especial maderas en diferentes estados de conservacion, y su interpretacion dentro del contexto del Neogeno Iberico. En primer lugar se detallan los objetivos del trabajo y los antecedentes del mismo. A continuacion, se describen detalladamente los dos yacimientos estudiados y se exponen las tecnicas empleadas de acuerdo con los diferentes tipos de materiales. Mas tarde se identifican taxonomicamente todos los restos hallados en los mismos. En el mismo capitulo de resultados se aplica el Metodo de Coexistencia sobre los principales yacimientos neogenos de la peninsula Iberica, para la estimacion de valores climaticos y se elabora un modelo de evolucion climatica para este periodo. Por ultimo, se discuten los resultados obtenidos, estableciendo una hipotesis de composicion y estructura de los bosques que vivieron en el tiempo en el que se depositaron los restos estudiados, se comparan con los datos obtenidos por otros autores y se combinan estos resultados con los datos del modelo de clima para reconstruir una sintesis de la evolucion de la vegetacion de la Peninsula durante el Periodo Neogeno y Gelasiense. Abstract This PhD thesis is based on the study of two different sites of vegetal fossil remains, specially wood in different preservation states, and their meaning in Iberian Neogene context. First of all, the objectives of the work and previous records are explained thoroughly. Secondly, the two deposits are described in detail, as well as the techniques used, according to different types of materials. Later on, all the samples found in each one are identified. In the same chapter of results, the “Coexistence Approach” is applied on the main Neogen sites of the Iberian Peninsula to estimate climatic intervals, and a model of climatic evolution for this period is built. Finally, the achieved results are discussed, setting an hypothesis about the composition and structure of the forests that lived in the time when the studied samples were settled. These results are then compared with the data gathered by different authors, and related to the data of the climatic model, to make a synthesis of the evolution of the vegetation in the Iberian Peninsula, during Neogene and Gelasian.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo de computaci¿on en la nube (cloud computing) ha ganado mucha popularidad en los últimos años, prueba de ello es la cantidad de productos que distintas empresas han lanzado para ofrecer software, capacidad de procesamiento y servicios en la nube. Para una empresa el mover sus aplicaciones a la nube, con el fin de garantizar disponibilidad y escalabilidad de las mismas y un ahorro de costes, no es una tarea fácil. El principal problema es que las aplicaciones tienen que ser rediseñadas porque las plataformas de computaci¿on en la nube presentan restricciones que no tienen los entornos tradicionales. En este artículo presentamos CumuloNimbo, una plataforma para computación en la nube que permite la ejecución y migración de manera transparente de aplicaciones multi-capa en la nube. Una de las principales características de CumuloNimbo es la gestión de transacciones altamente escalable y coherente. El artículo describe la arquitectura del sistema, así como una evaluaci¿on de la escalabilidad del mismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad última de este trabajo y de las reflexiones que ha generado en el grupo de profesores que lo presentan, es avanzar hacia herramietnas de evaluación acordes a los procesos formativos que priman la educación frente al adiestramiento. En este sentido, en una asignatura avanzada de la titulación de Ingeniero Agrónomo se ha definido e implementado una actividad, en la que el procedimiento de evaluación se ajusta a un modelo holístico, tiene en cuanta las particularidades de la calificación en el aprendizaje colaborativo e implica a los propios estudiantes en la evaluación de sus compañeros. El presente trabajo estudia las posibilidades de implementación de los métodos de evaluacion propuestos en entornos virtuales de aprendizaje (EVAs) identificando los aspectos positivos pero también las carencias derivadas de su uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, las redes sociales se han instaurado como un mecamismo muy potente de comunicaci¿on y contacto entre individuos. Sin embargo, las pol¿?ticas de privacidad que normalmente han acompa?nado a estas redes sociales no han sido capaces de evitar el mal uso de las mismas en temas relacionados con protecci¿on a menores. El caso m¿as significativo es el de adultos, haci¿endose pasar por menores. Este trabajo investiga la viabilidad del uso de t¿ecnicas biom¿etricas basadas en rasgos faciales para la detecci¿on de rangos de edad, con el prop¿osito de evitar que adultos se hagan pasar por menores, o incluso que ciertos menores puedan acceder a redes sociales, cuyo acceso debe estar trestringido por su edad. Los resultados muestran que es posible hacer esta distinci¿on entre adultos y menores, seleccionando edades umbrales cercanas a los 18 a? nos, con tasas de acierto cercanas al 80 %, y empleando clasificadores basados en m¿aquinas de vector soporte (SVMs) lineales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente estudio se elabora un estado del arte del hormigon autosellante tomando como base fundamentalmente la publicacion de Van Tittleboom y De Belie referenciada en la bibliografia, ampliandolo con otras fuentes bibliograficas consultadas. En el se explica el concepto de solidez del autosellado, las diferentes posibilidades de autosellado disponibles, se analizan las ventajas e inconvenientes de los diferentes tipos de agentes de autosellado y tecnicas de encapsulado. Tambien se tratan los mecanismos a aplicar para activar el proceso, y se tienen en cuenta las propiedades recuperadas a causa del autosellado y las tecnicas empleadas para cuantificarlo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interacciones no lineales de ondas de Alfven existen tanto para plasmas en el espacio como en laboratorios. En ingeniería aeroespacial amarras electrodinámicas espaciales ("tethers") generan emisión de ondas de Alfven en estructuras denominadas "Alas de Alfven". La ecuación Derivada no lineal de Schrödinger (DNLS) posee la capacidad de describir la propagation de ondas de Alfven de amplitud finita circularmente polarizadas tanto para plasmas fríos como calientes. En esta investigación, dicha ecuacion es solucionada numéricamente por medio de tecnicas espectrales para las derivadas espaciales y un esquema de Runge-Kutta de 4to orden para evaluar el avance en el tiempo. Se considera la ecuacion DNLS sin efectos difusivos, sin embargo se mantienen el termino lineal y lineal y el dispersivos. Se ha trabajado con dos condiciones iniciales: 1 - Una onda, 2 - Tres ondas cerca de resonancia (k1 = k2 + k3), la primera onda (correspondiente a k1) está excitada y las otras dos amortiguadas. En el caso de una única onda los resultados numéricos verifican las condiciones analíticas de estabilidad modular, adems se ha encontrado que el tiempo en el que se produce la inestabilidad y la forma en que evoluciona el sistema depende, para un mismo número de onda, de la amplitud inicial. Con tres ondas se realiza un estudio numérico tanto para plasmas frios como calientes encontrándose que aparece redistribución de energía en un gran número de nodos tanto para ondas polarizadas hacia la izquierda como hacia la derecha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se centra en la construcción de la parte física del personaje virtual. El desarrollo muestra téecnicas de modelado 3D, cinemática y animación usadas para la creación de personajes virtuales. Se incluye además una implementación que está dividida en: modelado del personaje virtual, creación de un sistema de cinemática inversa y la creación de animaciones utilizando el sistema de cinemática. Primero, crear un modelo 3D exacto al diseño original, segundo, el desarrollo de un sistema de cinemática inversa que resuelva con exactitud las posiciones de las partes articuladas que forman el personaje virtual, y tercero, la creación de animaciones haciendo uso del sistema de cinemática para conseguir animaciones fluidas y depuradas. Como consecuencia, se ha obtenido un componente 3D animado, reutilizable, ampliable, y exportable a otros entornos virtuales. ---ABSTRACT---This article is pointed in the making of the physical part of the virtual character. Development shows modeling 3D, kinematic and animation techniques used for create the virtual character. In addition, an implementation is included, and it is divided in: to model the 3D character, to create an inverse kinematics system, and to create animations using a kinematic system. First, creating an exact 3D model from the original design, second, developing an inverse kinematics system that resolves the positions of the articulated pieces that compose the virtual character, and third, creating animation using the inverse kinematics system to get fluid and refined animations in realtime. As consequence, a 3D animated, reusable, extendable and to other virtual environments exportable component has been obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de los accidentes tipo LOCA o MSLB en una contención PWR-W normalmente se simulan con la opción de volúmenes de control con parámetros agrupados en GOTHIC, ya que es lo que hasta ahora se ha considerado adecuado para el análisis de licencia. Sin embargo, para el estudio de detalle del comportamiento termo-hidráulico de cada recinto de la contención, podría ser más adecuado contar con un modelo tridimensional que representase más fielmente la geometría de la contención. El objetivo de la primera fase del proyecto de investigación de CNAT y la UPM es la construcción de varios modelos tridimensionales detallados con el código GOTHIC 8.0 de los edificios de contención de una planta tipo PWR-W y KWU, correspondientes a la Central Nuclear de Almaraz (CNA) y Trillo (CNT) respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo del modelo de la Contención de C.N. Cofrentes mediante GOTHIC se ha llevado a cabo introduciendo todos los datos geométricos y de estructuras de la Contención, pudiendo así modelar todos los recintos interiores y habitaciones que la componen. De esta forma se ha obtenido un modelo 3D detallado y con la precisión suficiente para el estudio global de la gestión del hidrógeno, permitiendo tener en cuenta, a la hora de la distribución del hidrógeno, la asimetría tanto de la contención como de las descargas de masa y en energía que en ella se realizan, permitiendo simular la distribución del vapor y el hidrógeno presentes en el accidente severo para poder determinar las zonas de mayor riesgo de deflagración o detonación durante la evolución del accidente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante el desarrollo de un accidente severo en un reactor PWR, se pueden generar grandes cantidades de hidrógeno por la oxidación de los metales presentes en el núcleo, principalmente el zirconio de las vainas del combustible. Este hidrógeno, junto con vapor y otros gases, puede ser liberado a la atmósfera de la contención por una fuga o rotura en el circuito primario y alcanzar condiciones en las que pueda darse combustión. La combustión provoca cargas térmicas y de presión que pueden dañar los sistemas de seguridad y la integridad del edificio de contención, última barrera de confinamiento de los materiales radiactivos. La principal condición que define las características de la combustión es la concentración de especies, por lo que el conocimiento detallado de la distribución de hidrógeno resulta muy importante para predecir correctamente los posibles daños en la contención en el caso de que se produjera combustión.