115 resultados para TK ingeniería eléctrica. Ingeniería electrónica nuclear
Resumo:
Los Sistemas de Información geográfica (SIG) son una herramienta de trabajo habitual en el ámbito de la ingeniería forestal, tanto en la faceta de redacción de proyectos, como en la investigación sobre el medio ambiente y el territorio. Cada vez hay más información cartográfica disponible desde servidores de diferentes instituciones, por lo que consideramos que es muy útil contar con una herramienta de organización de la información. En el trabajo que se presenta, se pretende proporcionar a los estudiantes e investigadores en materia forestal un portal que contenga información actualizada y ordenada sobre los recursos existentes compatibles con los SIG. Por tanto constituiráuna herramienta de apoyo que facilitarála fase de documentación, búsqueda de datos compatibles y aprendizaje de las herramientas que sirven de base para el desarrollo de cualquier trabajo técnico o de investigación relacionado con el medio ambiente y el territorio que se apoye en los SIG.
Resumo:
El emprendimiento de base tecnológica es un tema crítico para la generación de crecimiento económico, por lo que conocer los determinantes de la intención emprendedora de estudiantes de universidades técnicas adquiere una especial relevancia. En este estudio se analiza la importancia de los modelos de conducta en la intención emprendedora entre los estudiantes de carreras técnicas. Los resultados muestran que los estudiantes de padres empresarios tienen una intención emprendedora superior a la media, mientras que los de hijos de padres funcionarios están por debajo de ella. Igualmente, la ausencia de modelos de conducta emprendedora en el entorno cercano disminuye la intención emprendedora, mientras que la ausencia de funcionarios no la hace aumentar.
Resumo:
Plataforma digital interactiva como modelo de gestión en el campo de la arquitectura e ingeniería: ecosistema parque natural de 'El Hondo'
Resumo:
El uso de la computación en la nube ofrece un nuevo paradigma que procura proporcionar servicios informáticos para los cuales no es necesario contar con grandes infraestructuras y sobre todo, con las complejidades de costos, seguridad y mantenimiento implícitas. Si bien se ha posicionado en los últimos años como una plataforma innovadora en el ámbito de la tecnología de consumo masivo y organizacional, también puede ser tópico de investigación importante en ciertas áreas de interés como el desarrollo de Software, presentando en ese campo, una serie de ventajas y retos estimulantes que pueden ser explorados. Este trabajo de investigación, sigue con dicho sentido, el objetivo de exponer la situación actual sobre el empleo de la computación en la nube como entorno de desarrollo de Software, sectorizando a través de su capa PaaS, el modelo conceptual de trabajo, las perspectivas recientes, problemas e implicaciones generales del uso de ésta como herramienta plausible en proyectos de desarrollo de Software. El análisis de los diferentes temas abordados, tiene la intención en general, de proporcionar información objetiva, crítica y cuantitativa sobre la concentración de la investigación relacionada a PaaS, así como un marco de interpretación reciente que aporte una perspectiva referencial para futuras investigaciones asociadas.---ABSTRACT---The use of cloud computing offers a new paradigm to provide computer services for which it is not necessary to have large infrastructure and especially with the complexities of cost, safety and maintenance implied. While it has positioned itself in recent years as an innovative platform in the field of technology and massive organizational consumption, can also be an important research topic in certain areas of interest including, the development of Software, presenting in this field, a series of advantages, disadvantages and stimulating challenges that can be explored. This research, following with that sense, try to present the current situation related to the use of cloud computing as a software development environment, through its sectorized PaaS layer, showing the conceptual working model, actual perspectives, problems and general implications of using this as a possible tool in Software development projects. The analysis of the different topics covered, intends in a general form, provide objective, critical and quantitative information about the concentration of research related to PaaS, and a recent interpretation framework to provide a referential perspective for future related researches.
Resumo:
Los Trabajos Fin de Título (TFT) de las titulaciones de ingeniería civil, en su modalidad de “trabajos de carácter profesional directamente relacionados con los estudios cursados”, deben incluir anejos específicos de Geología y Geotecnia, cuya elaboración resulta en ocasiones compleja para los estudiantes: 1º) por el tiempo transcurrido entre los primeros cursos, cuando se imparten estas materias, y el final de los estudios; y 2º) por la necesidad de equipos especiales para el reconocimiento del terreno, que exceden sus posibilidades económicas. A modo de directrices orientadoras para tutores y estudiantes, se han considerado cuatro tareas básicas que permitan elaborar y redactar estos anejos, de forma razonada y ordenada. Además, se propone un índice-guía que consta de ocho apartados. Por último, se pretende hacer partícipes a profesores y alumnos de ingeniería civil de estas ideas, de manera que con sucesivas mejoras, pueda constituir una guía metodológica
Resumo:
La ciberseguridad es un tema que está cobrando cada vez más importancia en nuestra sociedad debido al continuo desarrollo que está experimentando Internet. Las personas siempre se han preocupado por proteger sus datos y posesiones físicas; pero, por algún motivo que se desconoce, no logran tomar conciencia de que es igualmente importante guardar de manera segura su información digital. Últimamente, empresas y particulares han empezado a instalar cortafuegos, sistemas anti-virus, sistemas de detección frente a intrusos, etc. Sin embargo, hay una parte de la ciberseguridad desconocida y muy peligrosa que puede provocar que un ataque tenga éxito pese a existir todos estos sistemas de protección: la Ingeniería Social. El objetivo de este documento es repasar de manera detallada las técnicas que utilizan hoy en día los hackers para complementar sus ataques o para realizarlos directamente a través de ellas. Muchos métodos han existido siempre, otros han evolucionado a través del tiempo y algunos han surgido con el paso de los años debido a los nuevos medios de comunicación que se han ido desarrollando. Además, se va a intentar analizar cuáles son las mejores técnicas dependiendo de cuál sea el objetivo del atacante. Este estudio se ha realizado considerando las diferencias que supone que un ataque vaya dirigido a una persona corriente o a una empresa en particular. Este apartado reúne todos los datos que se han podido encontrar para que quien lo lea sea capaz de tener en cuenta la mayoría de casos posibles que un hacker puede considerar cuando realiza un ataque de estas características. Por último, se ha creído importante proponer una campaña de concienciación para aportar una posible solución a la educación de la sociedad sobre la Ingeniería Social. Repasando campañas de sensibilización hechas en el pasado por empresas, instituciones privadas o gobiernos y analizando los errores y aciertos de éstas, se ha desarrollado brevemente una campaña de cambio social propia
Resumo:
Comprender y estimular la motivación resulta crucial para favorecer el rendimiento de los estudiantes universitarios y profesionales de diversos ámbitos de conocimiento, como el de la Ingeniería del Software. Actualmente, este sector está demandando soluciones científico-tecnológicas para trabajar de una manera práctica y sistemática sobre elementos motivacionales como la satisfacción por el estudio y el trabajo, el aprendizaje activo o las relaciones interpersonales. El objetivo de esta Tesis Doctoral es definir y validar soluciones para evaluar y mejorar la motivación de los estudiantes y profesionales en Ingeniería del Software. Para ello, se han creado instrumentos, metodologías y tecnologías que se han aplicado con un total de 152 estudiantes y 166 profesionales. Esta experiencia empírica ha servido para mejorar de manera continua dichas aportaciones, así como para comprobar en un entorno real su validez y utilidad. Los datos recogidos revelan que las soluciones provistas han resultado eficaces para comprender y estimular la motivación tanto en el ámbito académico como en el profesional. Además, a raíz de los datos recogidos se han podido explorar aspectos de interés sobre las características y particularidades motivacionales asociadas a la Ingeniería del Software. Por tanto, esta Tesis Doctoral resulta de interés para las universidades y empresas de este sector sensibilizadas con el desarrollo motivacional de sus estudiantes y trabajadores. Abstract It is crucial to understand and encourage the motivation of students and professionals in order to enhance their performance. This applies to students and professionals from diverse fields such as Software Engineering. Currently this sector is demanding scientific–technological solutions to work on motivational elements in a pragmatic and systematic way. Such elements are among others study and work satisfaction, active learning or interpersonal relationships. This Doctoral Thesis objective is to establish and validate solutions to evaluate and improve the motivation in the Software Engineering field. To achieve this goal, resources, methods and technologies have been created. They have been applied to 152 students and 166 professionals. This empirical experience served to, on one hand, enhance in a continuous way the provided contributions, and on the other hand, to test in a real environment their validity and utility. The collected data reveal that the provided solutions were effective to understand and encourage motivation both in the academic and in the professional area. In addition, the collected data enable to examine interesting aspects and motivational special features associated with Software Engineering. Therefore this Doctoral Thesis is relevant to universities and firms from this field which are aware of the significance of the motivational development of their students and employees.
Resumo:
En el marco del Espacio Europeo de Educación Superior los estudios deben de estar orientados a facilitar la movilidad de los futuros egresados para que su inclusión en mundo laboral sea global y en este contexto, los sistemas educativos deben introducir cambios en el proceso de enseñanza – aprendizaje y en la gestión. Como uno de los elementos básicos de la creación del EEES es el aprendizaje a lo largo de la vida, se deben adoptar metodologías que doten al estudiante de capacidades para poder enfrentarse a todos los retos de la vida laboral. A través de la presente investigación se trata de aportar una visión real de la aplicación efectiva de un modelo de Aprendizaje Basado en Problemas y el Método del Caso acompañados de una fuerte Acción Tutorial y el uso de la Tecnología de la Información y Comunicación en la Universidad (TIC). Se considera asimismo de gran interés para la mejora del aprendizaje conocer cuál es la opinión real de los estudiantes universitarios, ya que son los principales implicados en relación a un modelo formativo apoyado en el Aprendizaje Basado en Problemas, el Método del Caso, la Acción Tutorial y utilización de las TIC. A través de este estudio se pretende comprobar y valorar cual es la visión real que los alumnos tienen de estas aplicaciones y como las utilizan. Para ello durante los últimos cursos se ha trabajado con alumnos de los últimos cursos de la Escuela Técnica Superior de Ingeniería Civil de la Universidad Politécnica de Madrid aplicando técnicas de Aprendizaje Basado en Problemas y el Método del Caso conjuntamente con la utilización de un Modelo de Acción Tutorial y el uso de la TIC. La tarea se ha centrado en desarrollar, a lo largo de los cursos 2009-10, 2010-11, 2011-12 y 2013-14, un modelo de Acción Tutorial con los alumnos matriculados en las asignaturas de Caminos I, Caminos II, Aforos y Ordenación del Tráfico, asignaturas de la titulación de Ingeniería Técnica de Obras Públicas, y por otro lado, en la asignatura de Caminos, perteneciente a la titulación de Ingeniería Civil. Mediante cuestionarios al inicio y final del curso, se ha conocido cuál es la opinión que poseen los alumnos sobre esta acción. A continuación, durante los cursos 2010-11, 2011-12 y 2013-14 se desarrolla un modelo experimental para evaluar las mejoras, tanto de rendimiento como de adquisición de competencias, utilizando el Aprendizaje Basado en Problemas y el Método del Caso acompañados de las TIC en el proceso de enseñanza–aprendizaje como modelo de Acción Tutorial con alumnos. ABSTRACT Abstract In the frame of the European Higher Education Area, the studies must be faced to facilitate mobility of future graduates for inclusion in the workplace is global and in this context, educational systems must introduce changes in the process of education-learning and management. Since one of the basic elements of the creation of the EHEA is learning throughout life, there must be adopted methodologies that provide the student of aptitudes to be able to face all the challenges of the labor life. Through this research it is provided a real vision of the effective application of a Model of Learning Based on Problems and the Case Method accompanied by a strong Tutorial Action and the use of ITC in the University. It is also considered of great interest for the improvement of learning to know what the real opinion of the college students is, as they are the main players in relation in a training model based on Problem-Based Learning, the Case Method, the Tutorial Action and Use of ICT. Through this study it is expected to verify and assess which is the real vision that students have about these applications and how they use them. In order to achieve the goal of this research project, during the last three years I have been working with students of last courses of the Civil Engineering School of the Technical University of Madrid applying with them techniques of Problem-Based Learning and the Case Method together with the use of a Model Action Tutorial and the Use of Information Technology and Communication (ICT). The task has focused on developing, over the 2009-10, 2010-11, 2011-12 and 2013-14 courses, a model of Tutorial Action with students enrolled in the subjects of Roads I, Roads II, Traffic Gauging and Traffic Management, all of them of the old degree in Civil Engineering (1971 Study Plan), and secondly, on the subject of Roads which belong to the current degree of Civil Engineering. Using questionnaires at the beginning and end of the course the perception that students have on this action.. Then, during the 2010-11, 2011-12 and 2013-14 courses an experimental model is developed to evaluate improvements in both performance and skills acquisition, using Problem-Based Learning and the Case Method together with the ICT in Teaching-Learning Pprocess as a model of Tutorial Action with students.
Resumo:
Los Recursos Educativos Abiertos (REA) y los Cursos Educativos Abiertos (OCW) son utilizados como apoyo para los procesos de enseñanza aprendizaje; el carácter de abierto de estos recursos contribuye a la difusión de conocimiento y facilita el acceso a la información. Existe una gran cantidad de universidades e instituciones de educación superior que se han unido al movimiento abierto, poniendo a disposición los OCW que sus docentes realizan para los estudiantes formales, sin embargo se ha detectado que no existe un proceso estándar en la producción de OCW ya que cada universidad lo realiza con modelos propios de acuerdo a las normativas institucionales. Por lo cual en este trabajo de tesis doctoral se propone un modelo de producción de REA y OCW, denominado REACS que contempla el uso de un modelo de diseño instruccional que permite realizar un proceso sistemático de actividades que contribuyen al aprendizaje; además de la utilización de herramientas sociales y herramientas semánticas que aportan al trabajo colaborativo e identificación de los recursos por su significado, lo cual aporta a la inteligencia colectiva. REACS fue comparado con procesos de producción similares de las universidades relevantes del movimiento OCW, además de ser implementado en un caso de estudio con tres fases en la creación de OCW para una institución de educación superior. Con esta validación se pudo comprobar que REACS aportaba a incrementar el número de estudiantes que aprueban un curso y disminuye el tiempo de producción y publicación de un OCW. ABSTRACT Open Educational Resources (OER) and Open Course Ware (OCW) are used as support for teaching and learning processes; the open characteristic of these resources contributes to the diffusion of knowledge and facilitates the access to information. There are an important number of universities and institutions of higher education have joined to the open movement, making available the OCW´s for formal students. However, it has been found that there is not a standard process for the production of OCW and each university develop these with their own models according to their institutional regulations. Therefore, this doctoral thesis proposes REACS, a production model of OER and OCW that contemplates the use of an instructional design model that allows a systematic process of activities that contribute to learning. REACS includes the use of social tools and semantic tools that provide collaborative and identification of resources based in their meaning, contributing with the collective intelligence. REACS was compared with similar production processes belonging to relevant universities in the OCW movement. Additionally OCW were produced using REACS in a study case developed in three stages. With these validations, it was found that REACS contributed to increasing the student approved ratio and the OCW production and publication times were reduced.
Resumo:
La progresiva internacionalización de las universidades españolas convierte a estas organizaciones en escenarios plurilingües. El español convive en ellos con otras lenguas, en especial el inglés, como vehículo de acceso y transmisión de conocimiento especializado. Esto requiere un proceso de alfabetización académica en lengua extranjera que tendrían que asumir las universidades de acogida, con objeto de preservar a los alumnos de los fracasos en los programas internacionales. Por el momento, en España, los programas de grado o de posgrado no establecen filtros con umbrales lingüísticos mínimos de acceso, a excepción de algunas universidades que se limitan a requerir certificados de grado de dominio del español general. No existen exámenes públicos de ingreso, o exámenes propios de postadmisión, que evalúen la habilidad lingüística comunicativa en contextos académicos. En este trabajo, se parte de la hipótesis de que los exámenes que certifican un grado de dominio de español general no sirven al propósito de discriminar a los alumnos capaces de seguir con éxito los programas de las universidades. Para verificarla, se desarrolla una prueba de examen específica que mida la capacidad de emplear el español en contextos académicos. La prueba se centra en las tareas que se revelan, en una primera fase exploratoria de la investigación, como más necesarias en lo que se refiere al uso del español como lengua vehicular: las clases magistrales. Una vez pilotada, se administró junto con otras destinadas a evaluar el grado de dominio de la lengua en contextos generales. Los resultados obtenidos del contraste de estas mediciones y de diversos análisis de los datos arrojan evidencias de que este tipo de prueba mide un constructo específico: la habilidad de uso del español en contextos académicos. ABSTRACT The progressive internationalization of Spanish universities has transformed these organizations into plurilingual scenarios. Spanish lives in them sharing the stage with other languages, especially English, as a means of access and transmission of expert knowledge. This requires a process of academic literacy in foreign language that host universities should assume, in order to safeguard students from failures in international programs. At the moment, in Spain, undergraduate or graduate programs do not set filters with minimum language requirements to gain access, except for some universities that merely require certificates of general Spanish. There are no Spanish language public admission exams, or post-enrollment tests of their own, to assess the communicative language ability of foreign students in academic contexts. In this dissertation, we start from the hypothesis that those tests that certify the student degree of mastery of the Spanish language do not serve the purpose of discriminating against students capable of successfully pursuing university programs. To prove it, a specific test that measures the ability to use Spanish in academic contexts was developed. This language test focused on the tasks associated with the most common genre, which revealed prominent in a first exploratory phase of the investigation, related to the use of Spanish as a means of instruction: university lectures. Once piloted, the test was administered along with others designed to assess the degree of mastery of the language in general contexts. Contrast results of these measurements and various analyzes of the data showed evidence that this type of test measures a specific construct: the ability to use Spanish in academic contexts.
Resumo:
Discurso ofrecido por D. Rafael Portaencasa en el acto conmemorativo de las Bodas de Plata de la Promoción "Princesa Sofía", de la Escuela Universitaria de Ingeniería Técnica de Telecomunicación. En sus palabras, el Rector agradece el mecenazgo que en su día ofreció la Princesa Sofía a una promoción de estudiantes de la Escuela Técnica de Telecomunicación y repasa los logros que se han alcanzado desde entonces.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.
Resumo:
Recientemente se ha demostrado la existencia de microorganismos en las piscinas de almacenamiento de combustible nuclear gastado en las centrales nucleares utilizando técnicas convencionales de cultivo en el laboratorio. Estudios posteriores han puesto de manifiesto que los microorganismos presentes eran capaces de colonizar las paredes de acero inoxidable de las piscinas formando biopelículas. Adicionalmente se ha observado la capacidad de estas biopelículas de retener radionúclidos, lo que hace pensar en la posibilidad de utilizarlas en la descontaminación de las aguas radiactivas de las piscinas. En la presente tesis se plantea conocer más profundamente la biodiversidad microbiana de las biopelículas utilizando técnicas de biología molecular como la clonación, además de desarrollar un sistema de descontaminación a escala piloto con el objetivo de valorar si el proceso podría resultar escalable a nivel industrial. Para ello se diseñaron y fabricaron dos biorreactores en acero inoxidable compatibles con las condiciones específicas de seguridad sísmica y protección frente a la radiación en la zona controlada de una central nuclear. Los biorreactores se instalaron en la Central Nuclear de Cofrentes (Valencia) en las proximidades de las piscinas de almacenamiento de combustible nuclear gastado y precediendo a las resinas de intercambio iónico, de forma que reciben el agua de las piscinas permitiendo el análisis in situ de la radiación eliminada del agua de las mismas. Se conectó una lámpara de luz ultravioleta a uno de los biorreactores para poder comparar el desarrollo de bipelículas y la retención de radiactividad en ambas condiciones. En estos biorreactores se introdujeron ovillos de acero inoxidable y de titanio que se extrajeron a diversos tiempos, hasta 635 días para los ovillos de acero inoxidable y hasta 309 días para los ovillos de titanio. Se analizaron las biopelículas desarrolladas sobre los ovillos por microscopía electrónica de barrido y por microscopía de epifluorescencia. Se extrajo el ADN de las biopelículas y, tras su clonación, se identificaron los microorganismos por técnicas independientes de cultivo. Asimismo se determinó por espectrometría gamma la capacidad de las biopelículas para retener radionúclidos. Los microorganismos radiorresistentes identificados pertenecen a los grupos filogenéticos Alpha-proteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus y Bacteroidetes. Las secuencias de estos microorganismos se han depositado en el GenBank con los números de acceso KR817260-KR817405. Se ha observado una distribución porcentual ligeramente diferente en relación con el tipo de biorreactor. Las biopelículas han retenido fundamentalmente radionúclidos de activación. La suma de Co-60 y Mn-54 ha llegado en ocasiones al 97%. Otros radionúclidos retenidos han sido Cr-51, Co-58, Fe-59, Zn-65 y Zr-95. Se sugiere un mecanismo del proceso de retención de radionúclidos relacionado con el tiempo de formación y desaparición de las biopelículas. Se ha valorado que el proceso escalable puede ser económicamente rentable. ABSTRACT The existence of microorganisms in spent nuclear fuel pools has been demonstrated recently in nuclear power plants by using conventional microbial techniques. Subsequent studies have revealed that those microorganisms were able to colonize the stainless steel pool walls forming biofilms. Additionally, it has been observed the ability of these biofilms to retain radionuclides, which suggests the possibility of using them for radioactive water decontamination purposes. This thesis presents deeper knowledge of microbial biofilms biodiversity by using molecular biology techniques such as cloning, and develops a decontamination system on a pilot scale, in order to assess whether the process could be scalable to an industrial level. Aiming to demonstrate this was feasible, two stainless steel bioreactors were designed and manufactured, both were compatible with seismic and radiation protection standards in the controlled zone of a nuclear plant. These bioreactors were installed in the Cofrentes Nuclear Power Plant (Valencia) next to the spent nuclear fuel pools and preceding (upstream) ion exchange resins. This configuration allowed the bioreactors to receive water directly from the pools allowing in situ analysis of radiation removal. One ultraviolet lamp was connected to one of the bioreactors to compare biofilms development and radioactivity retention in both conditions. Stainless steel and titanium balls were introduced into these bioreactors and were removed after different time periods, up to 635 days for stainless steel balls and up to 309 days for titanium. Biofilms developed on the balls were analyzed by scanning electron microscopy and epifluorescence microscopy. DNA was extracted from the biofilms, was cloned and then the microorganisms were identified by independent culture techniques. Biofilms ability to retain radionuclides was also determined by gamma spectrometry. The identified radioresistant organisms belong to the phylogenetic groups Alphaproteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus and Bacteroidetes. The sequences of these microorganisms have been deposited in GenBank (access numbers KR817260-KR817405). A different distribution of microorganisms was observed in relation to the type of bioreactor. Biofilms have essentially retained activation radionuclides. Sometimes the sum of Co-60 and Mn-54 reached 97%. Cr-51, Co-58, Fe-59, Zn-65 and Zr-95 have also been retained. A radionuclide retention process mechanism related to biofilms formation and disappearance time is suggested. It has been assessed that the scalable process can be economically profitable.