100 resultados para Aplicaciones informáticas

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El contenido del Proyecto Fin de Carrera está desarrollado para profundizar en el conocimiento de las aplicaciones para el procesado de datos LiDAR, si bien, puede ser utilizado también como guía o consulta por el personal docente y técnico interesado, en el desarrollo o explicación de otros trabajos de comparación de herramientas relacionadas con la topografía. Por último, se pretende con esta comparación que se pueda elegir con facilidad una u otra aplicación según las necesidades de los proyectos y las capacidades con las que se cuentan, teniendo en cuenta las limitaciones a la hora de disponer de todo lo necesario para su realización. Los objetivos que se quieren alcanzar son: • Obtención de datos geoespaciales de unas zonas para su posterior procesado. • Realizar un control de calidad general para comprobar que los datos son aptos para nuestro trabajo. • Elegir las aplicaciones informáticas y establecer unos criterios de comparación. Para después poder realizar la comparativa de las aplicaciones informáticas. La consecución de los objetivos generales es posible a partir del planteamiento de los siguientes objetivos específicos: • Presentar el vuelo de una zona y las características de este. • Realizar un control de calidad específico en altimetría y planimetría. • Justificar la elección de distintas zonas a editar. • Definir los criterios que se van a comparar. • Edición generada con las aplicaciones que se han elegido, las cuales son: FUSION, MDTopX, TerraScan, MARS y SCOP. • Y por último realizar una comparativa entre las aplicaciones según los criterios elegidos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Está Tesis refleja los trabajos de investigación que tienen como resultado el desarrollo de una metodología cuyo objetivo es la automatización optimizada en la generación de grandes entornos virtuales destinados a simulaciones de conducción terrestre guiada, es decir, sobre trayectorias predefinidas, bajo PC. En ella se aborda el ciclo completo de generación de un entorno virtual, aportando soluciones optimizadas en cada una de las fases. Para definir estas soluciones, se ha llevado a cabo un estudio en profundidad de las características y requisitos exigidos a este tipo de representaciones virtuales así como de las posibles vías resolutivas, concluyéndose con el establecimiento de tres fases constructivas. La primera fase es la del análisis perceptivo visual. La presente Tesis, tras sintetizar las características que definen a este tipo de entornos así como sus condiciones perceptivas, propone una metodología constructiva que saca el máximo partido de las mismas de una manera hasta ahora no considerada: la creación del entorno mediante el ensamblaje y repetición (instanciación) de un número finito de patrones repetitivos o módulos. Son múltiples las ventajas aportadas por este sistema modular de instanciación: disminución de las labores de modelado, reducción drástica de la memoria de almacenamiento requerida y de los tiempos de carga, facilitación de las tareas de creación y edición de los escenarios. La segunda fase es la generación geométrica y topológica del entorno. El elevado volumen y heterogeneidad de la información a manejar hace necesario el desarrollo de métodos que automaticen el procesamiento de la misma. La presente Tesis desarrolla un sistema consistente en varios criterios de organización, corrección y almacenamiento de la información de partida. Dicho sistema permite por un lado la construcción fácilmente escalable y editable de entornos que cumplan las normativas circulatorias vigentes y por otro lado garantiza un óptimo flujo de la información entre los diversos subsistemas integrantes de la simulación. Flujo que ha sido plasmado en la elaboración de diversos protocolos de comunicación. La tercera fase es la del posicionamiento 3D de la base de datos visual, su jerarquización y optimización escénica. En esta fase, la presente Tesis ha desarrollado una serie de Algoritmos de Posicionamiento modular que garantizan el correcto acoplamiento de los módulos a lo largo de una serie de líneas directrices. Dichas líneas son creadas a partir de la definición de las trayectorias circulatorias, lo que ha permitido a su vez, la definición por parte de esta Tesis de un sistema de niveles de detalle discretos pseudo-variantes con el punto de vista, que permite optimizar la carga geométrica del escenario, mediante la definición en tiempo de precarga de los posibles niveles de detalle de cada módulo en función de su distancia transversal a la trayectoria. Por otro lado, con el fin de potenciar las ventajas de este sistema de instanciación esta Tesis propone el empleo de una serie de shaders que deforman los módulos en tiempo real, lo que permite disminuir el número de módulos necesarios en tiempo de precarga y aumenta la versatilidad constructiva y realismo de los escenarios. Finalmente, esta Tesis organiza todo el escenario en un grafo de la escena (scene graph) que busca minimizar el recorrido del mismo con el fin de maximizar las velocidades de refresco y facilitar las labores de edición de los escenarios. En este punto, la construcción modular del entorno es fundamental para alcanzar dichos objetivos. Todos los planteamientos teóricos expuestos en esta Tesis se han materializado en las correspondientes aplicaciones informáticas que se han validado como herramientas de desarrollo en la creación de grandes entornos virtuales de simuladores actualmente en funcionamiento, como los de Metro de Madrid de las series 7000, 8000, 3000, 9000 y Citadis y en otros experimentales donde también se han implementado los criterios y resultados perceptivos que optimizan estos simuladores.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La entrada en vigor del R.D. 635 del año 2006, sobre los requisitos mínimos de seguridad en túneles de carreteras establece la necesidad de profundizar en las características y prestaciones a exigir para los sistemas informáticos de control de ventilación en túneles tanto para las situaciones de servicio como de incendio. En general, este tipo de sistemas tienen como objetivo fundamental lograr la reducción de los tiempos de respuesta por parte de los sistemas y del personal de explotación, a la vez que aportar la mayor flexibilidad posible en las pautas de actuación manuales y automáticas. Sin embargo, las aplicaciones informáticas a implementar precisan tener en cuenta las diferencias en las tipologías de los sistemas de ventilación y las condiciones distintas que se pueden dar en la explotación del túnel, como por ejemplo, el tráfico denso o fluido en el interior del túnel en caso de incidente. Esto requiere estrategias de ventilación complejas que en algunos casos pueden ser predefinidas en el sistema de control. Con el objetivo de optimizar el funcionamiento de la ventilación es posible desarrollar algoritmos de control que establecen actuaciones sobre los distintos equipos en función de las condiciones previas al inicio del incidente pero también la evolución de las mismas durante el mismo. En consecuencia, el presente artículo intenta reflejar las tendencias y alternativas que puedan contemplarse para el control de los humos en caso de túneles planteados desde un punto de vista tanto teórico, en función de las recomendaciones internacionales, como práctico al incorporar resultados de medida in situ obtenidas en la verificación de sistemas de este tipo implementados sistemas de control de túneles en explotación.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Un acúfeno (tinnitus) es la percepción de un sonido en ausencia de estimulación acústica externa, es decir, la experiencia consciente de un sonido que se origina en la propia cabeza del paciente. En colaboración con el departamento de acústica (CAEND) del Consejo Superior de Investigaciones Científicas (CSIC), se pretende revertir (de forma paliativa) las molestias, con ayuda de terapias sonoras que estimulan el sistema auditivo. Primero, se analizan los tratamientos existentes que se utilizan para atender a los pacientes diagnosticados. Por último, se diseñan dos aplicaciones informáticas referentes a las terapias: Auditory Discrimination Training (ADT) y Enriched Acoustic Environment (EAE). Abstract Tinnitus is the perception of sound in the absence of external acoustic stimulation, in addition, the conscious experience a sound originating from the patient’s own head. In collaboration with the department of acoustic (CAEND) of the Consejo Superior de Investigaciones Científicas (CSIC), is to reverse (for palliation) discomfort, using sound therapies that stimulate the auditory system. First, we analyze the existing treatments are used to treat patients diagnosed. Finally, two applications are designed regarding therapies: Auditory Discrimination Training (ADT) and Enriched Acoustic Environment (EAE).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A raíz de la implementación de las Directivas Marco del Agua de la CE se han producido una serie de cambios conceptuales en el estudio del agua. Hoy en día, el agua necesita ser estudiada no sólo como agente a controlar, sino también como recurso a gestionar, como bien a valorar y como elemento básico del ecosistema a preservar. En esta nueva etapa que se abre son indispensables disciplinas también nuevas que capaciten a los técnicos encargados de esta gestión : conocimientos avanzados para entender el comportamiento no sólo de las aguas superficiales, sino también de las subterráneas, costeras y de transición, aplicaciones informáticas , nuevos procedimientos para el control de la escorrentía superficial y la conservación de suelos entre otras las nuevas técnicas de ordenación de cultivos, herramientas que permitan conocer el funcionamiento de los ecosistemas fluviales, técnicas para caracterizar y clasificar los regímenes hidrológicos, procedimientos para la obtención de series de caudales sintéticos , metodologías que permitan valorar el grado de alteración hidrológica y estrategias para la propuesta de medidas correctoras, protocolos de análisis de la calidad de los ecosistemas acuáticos, metodologías y técnicas fluviales, conocer e implementar técnicas de modelización del hábitat fluvial, estudio de los riegos de inundaciones, etc…Todo ello supone una nueva manera de entender la educación, la ingeniería y la política ambiental.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las recientes investigaciones realizadas en los potentes yacimientos de arcillas que se encuentran en la Ciudad de Malabo (Bioko Norte), República de Guinea Ecuatorial, revelaron la presencia mayoritaria de una fase compuesta por sepiolita, acompañada por especies secundarias de feldespato, caolinita, hematita, moscovita e illita. Los análisis por microscopía electrónica de barrido (MEB), difracción de rayos x (DRX) y agregado orientado con etilenglicol (AO), indican un comportamiento similar y homogéneo de la composición de las muestras estudiadas. Por otro lado, los análisis químicos, puzolanicidad, granulometría (tamizado en seco), consistencia, tiempo de inicio y final de fraguado y la determinación de la estabilidad de volumen, confirman la idoneidad de estas arcillas sepiolíticas no expansivas para sustituir hasta un 25% del cemento portland en los proyectos de mezclas de morteros. No se tiene noticia sobre la realización de proyectos de investigación en estas formaciones sedimentarias, por lo que se considera el primer trabajo de carácter científico que se inicia para la caracterización, sistematización y posibles aplicaciones de estas arcillas en la aún incipiente industria de la construcción ecuatoguineana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las rocas efusivas formadas por la actividad volcánica del volcán Basilé constituyen la principal fuente de áridos naturales de la Isla de Bioko, en Guinea Ecuatorial. El auge alcanzado por la construcción en la ciudad de Malabo, Malabo II y Malabo III, son un testimonio concluyente del volumen de áridos empleado para erigir los nuevos polígonos, urbanizaciones, infraestructura portuaria, carreteras, presas, alcantarillados y paseos marítimos. Gran parte de los materiales de construcción, fundamentalmente el cemento, procede de las importaciones, mientras que las rocas y minerales industriales autóctonos se conocen poco, opacados por el papel hegemónico del petróleo y el gas natural. El desconocimiento casi absoluto de las propiedades químicas, petrográficas y mecánicas de estas rocas, y la existencia de un sistema normativo pobre, ha provocado su uso indiscriminado y una controvertida calidad en la elaboración de los productos finales. Asimismo, la falta de experiencia en ingeniería y geotecnia para el desarrollo de minas y canteras, y la intermitencia de una ley de minas poco consolidada, ha favorecido la germinación indiscriminada de un gran número de excavaciones, propensas a continuos derrumbes y a la producción de impactos medioambientales irreversibles. La presente contribución científica se ha marcado como objetivo mostrar los resultados obtenidos del análisis y caracterización de estas formaciones volcánicas, así como su posible aprovechamiento industrial mediante el aporte de datos sobre sus propiedades puzolánicas e idoneidad en la elaboración de morteros. Los datos indican que estas rocas eruptivas, fundamentalmente escorias y flujos de lavas de composición basáltica, son capaces de sustituir al cemento pórtland normal hasta en un 25%, favoreciendo el incremento de las resistencias mecánicas normales con valores que sobrepasan los 37 Mpa a 28 días. El análisis de las muestras mediante el método de la puzolanicidad a 7 días dejó establecido el carácter puzolánico de estas rocas, que fue corroborado por la interpretación de citados ensayos mecánicos. El estudio de la composición química detectó contenidos en SiO2 (44,40%), Al2O3 (15,58%), CaO (9,32%), MgO (4,25%) y Fe2O3 (13,63%), y cantidades despreciables de azufre, sulfatos y materia orgánica. Los análisis de difracción de rayos x revelaron la presencia mayoritaria de una fase compuesta por feldespato, y una fase subordinada constituida por cuarzo, hematita y dolomita. El estudio mediante microscopía electrónica de barrido permitió comprobar la ausencia casi total de las especies vítreas. Los resultados que se presentan en este trabajo, podrían devenir en información útil para el posible emplazamiento de una fábrica de cemento puzolánico en la Isla de Bioko; la actual fábrica Abayak, única en Guinea Ecuatorial, y que se encuentra situada en la parte continental del país, no aporta suficiente producción para las demandas cada vez mayores de la construcción.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En las últimas décadas, el cognitivismo ha realizado una importante contribución al desarrollo de las competencias comunicativas de los estudiantes de lenguas extranjeras. Por una parte, ha ofrecido un soporte teórico mediante la determinación de los estilos y de las estrategias de aprendizaje para obtener, almacenar y utilizar la información (O´Malley, 1987; Chamot, 1990; O´Malley y Chamot, 1990). Por otra, ha proporcionado pruebas empíricas de que la percepción de la metáfora tiene un efecto positivo en la adquisición de lenguas y facilita el empleo de estrategias de extensión metafórica (Low, 2008; Littlemore, 2004). Este estudio propone un marco teórico para mejorar el proceso de enseñanza/aprendizaje que combina ambos aspectos, ya que asume que la metáfora es un componente fundamental de la cognición que posibilita la integración de conceptos nuevos en campos de conocimiento ya existentes. Por ello, con el propósito de crear recursos didácticos en los que se apliquen estrategias metafóricas, se ha elaborado un listado de metáforas de imagen y de metáforas conceptuales tomadas de la base de datos METACITEC. Se presenta la propuesta metodológica validada por los resultados de encuestas y por la observación en el aula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Una de las principales diferencias entre estudios de riesgo símico a escalas regional y urbana se refiere a la caracterización de la acción sísmica. En los estudios regionales, se impone el método probabilista, en el que habitualmente el resultado se expresa por medio de mapas de aceleración esperada para un periodo de retorno dado y espectros de peligrosidad uniforme. Sin embargo, en los estudios urbanos se requiere un mayor grado de detalle, tanto en la definición de las fuentes sismogenéticas como en la caracterización del movimiento esperado, sobre el que inciden de manera fundamental posibles efectos de resonancia con el suelo en el emplazamiento y/o con las estructuras asentadas en el mismo. En este trabajo se presentan diversas propuestas de caracterización de la acción sísmica en entornos urbanos. Para su aplicación práctica, se usarán datos de dos localidades concretas: Almería, donde se usará un escenario sísmico compatible con el sismo de control de la peligrosidad en rangos de aceleración esperados para un periodo de retorno de 475 años y en Alhama de Granada, donde el movimiento sísmico corresponde al que generaría un terremoto similar al de Andalucía de 1884, con fuente en la falla de Zafarraya.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presentan los avances realizados en el marco del proyecto “Evaluación de la Peligrosidad Sísmica en España para aplicaciones relacionadas con la seguridad nuclear” financiado por el Consejo de Seguridad Nuclear. La finalidad última del proyecto es ahondar en el conocimiento de la peligrosidad sísmica y de su incertidumbre en los emplazamientos de instalaciones críticas como instalaciones nucleares y almacenamientos de residuos radiactivos en nuestro país. Con ese propósito, una primera fase del proyecto está destinada a recopilar y estructurar toda la información generada en proyectos previos financiados por el CSN (DAÑOS, SIGMA, PRIOR, EXPEL y DATACIÓN) concerniente a estudio de fallas activas, análisis de paleosismicidad, catálogos sísmicos y de movimiento fuerte del suelo, etc.. Esta información está siendo integrada y unificada en una Base de Datos y en un Sistema de Información Geográfica. Paralelamente, el código informático desarrollado en el proyecto EXPEL está siendo actualizado para desarrollar cálculos de peligrosidad sísmica siguiendo la metodología PSHA de una forma eficiente, incluyendo formulación de un árbol lógico, cuantificación de incertidumbres epistémicas y aleatorias, análisis de sensibilidad de diferentes opciones en los resultados y desagregación. Los resultados preliminares del proyecto son presentados en esta comunicación, dando una orientación hacia futuros desarrollos y toma de decisiones relacionados con la seguridad nuclear.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En éste artículo se presenta el control adaptativo de un circuito auxiliar para conseguir conmutaciones suaves en todo el rango de carga en los semiconductores principales de un convertidor cargador de baterías trifásico basado en doble puente activo. Mediante este sistema se consigue tener ZVS en todo el margen de carga, sin ser necesaria la modificación de los parámetros del circuito ni de los semiconductores principales. Los principios de operación de este circuito y su control se comprobarán experimentalmente en un convertidor cargador de baterías de características similares al utilizado en el HYBRID TOYOTA PRIUS