825 resultados para Computación Efímera
Resumo:
Background and objective: In this paper, we have tested the suitability of using different artificial intelligence-based algorithms for decision support when classifying the risk of congenital heart surgery. In this sense, classification of those surgical risks provides enormous benefits as the a priori estimation of surgical outcomes depending on either the type of disease or the type of repair, and other elements that influence the final result. This preventive estimation may help to avoid future complications, or even death. Methods: We have evaluated four machine learning algorithms to achieve our objective: multilayer perceptron, self-organizing map, radial basis function networks and decision trees. The architectures implemented have the aim of classifying among three types of surgical risk: low complexity, medium complexity and high complexity. Results: Accuracy outcomes achieved range between 80% and 99%, being the multilayer perceptron method the one that offered a higher hit ratio. Conclusions: According to the results, it is feasible to develop a clinical decision support system using the evaluated algorithms. Such system would help cardiology specialists, paediatricians and surgeons to forecast the level of risk related to a congenital heart disease surgery.
Resumo:
El temblor humano puede definirse como un movimiento rápido y, en cierta manera, rítmico de una o más partes del cuerpo. En algunas personas, este movimiento puede ser un síntoma de alguna alteración a nivel neurológico. Desde el punto de vista matemático, el temblor humano puede ser definido como una suma ponderada de diferentes señales sinusoidales que causan oscilaciones de algunas partes del cuerpo. Esta sinusoide se repite en el tiempo pero su amplitud y frecuencia cambian lentamente. Por esta razón, la amplitud y la frecuencia son consideradas factores importantes en la clasificación del temblor y por tanto útiles en su diagnóstico. En este artículo, se presenta una herramienta de ayuda al diagnóstico del temblor humano. Esta herramienta usa un dispositivo hardware de bajo coste (<$40) y permite calcular las principales componentes de esta sinusoide asociada al temblor de una manera precisa. Como casos de estudio se presentan su aplicación a dos casos reales para probar la bondad de los algoritmos desarrollados. Los casos muestran pacientes que sufrían temblores con distinta severidad y que han realizado una serie de tests con el dispositivo para que el sistema calculara las principales componentes del temblor. Estas medidas aportadas por el sistema ayudarían en un futuro a los expertos a tomar decisiones más precisas permitiéndoles centrarse en determinadas fases del test o la realización de tests más específicos para evaluar mejor las características propias del temblor del paciente. De la experimentación realizada podemos afirmar que no todos los tests son válidos para el diagnóstico para todos los pacientes. Será finalmente la experiencia del profesional el que decidirá finalmente qué test o conjunto de tests son los más apropiados para cada paciente.
Resumo:
La plataforma tecnológica de datos abiertos universitarios (OpenData4U) permite la publicación de datos abiertos de una universidad, así como su acceso de manera que se potencie su reutilización (a través de un portal de datos abiertos y de un API para desarrolladores), a la vez que se permite disponer de un portal de transparencia para una acceso fácil a los datos de manera comprensible por cualquier persona. Esta es la plataforma que usa la Universidad de Alicante en su proyecto de datos abiertos y transparencia. Puedes acceder al código en https://github.com/UAdatos
Resumo:
El presente libro “Ecosistema de Datos Abiertos de la Universidad de Alicante” pretende ser de utilidad para aquellas Universidades interesadas en desarrollar políticas de transparencia y datos abiertos. En él se detalla la experiencia de la Universidad de Alicante en la implantación de su “Ecosistema de Datos Abiertos”, tanto los aspectos normativos, procedimentales como los tecnológicos. Desde el libro se enlaza el software “Plataforma Tecnológica de Datos Abiertos Univesitarios (OpenData4U)” que busca facilitar un entorno de colaboración tecnológica entre Universidades. Se crea de esta forma, el embrión de una red de ecosistemas tecnológicos de datos abiertos universitarios.
Resumo:
Human behaviour recognition has been, and still remains, a challenging problem that involves different areas of computational intelligence. The automated understanding of people activities from video sequences is an open research topic in which the computer vision and pattern recognition areas have made big efforts. In this paper, the problem is studied from a prediction point of view. We propose a novel method able to early detect behaviour using a small portion of the input, in addition to the capabilities of it to predict behaviour from new inputs. Specifically, we propose a predictive method based on a simple representation of trajectories of a person in the scene which allows a high level understanding of the global human behaviour. The representation of the trajectory is used as a descriptor of the activity of the individual. The descriptors are used as a cue of a classification stage for pattern recognition purposes. Classifiers are trained using the trajectory representation of the complete sequence. However, partial sequences are processed to evaluate the early prediction capabilities having a specific observation time of the scene. The experiments have been carried out using the three different dataset of the CAVIAR database taken into account the behaviour of an individual. Additionally, different classic classifiers have been used for experimentation in order to evaluate the robustness of the proposal. Results confirm the high accuracy of the proposal on the early recognition of people behaviours.
Resumo:
El Cuadro de Mando SmartUA es una aplicación software que permite localizar y visualizar con facilidad, en cualquier momento y desde cualquier lugar, toda la información recopilada desde diversas fuentes de datos y redes de sensores generadas por el proyecto Smart University de la Universidad de Alicante; representarla en forma de mapas y gráficas; realizar búsquedas y filtros sobre dicha información; y mostrar a la comunidad universitaria en particular y a la ciudadanía en general, de una forma objetiva e inteligible, los fenómenos que ocurren en el campus, interconectado sistemas y personas para un mejor aprovechamiento de los recursos, una gestión eficiente y una innovación continua.
Resumo:
En los últimos años, los sistemas que utilizan como fuente recursos renovables se han posicionado como una interesante alternativa para la producción de energía. Entre las fuentes disponibles, la energía eólica viene configurándose como una de las fuentes de energía renovable con mayor crecimiento en los últimos años. En este trabajo se propone el aprovechamiento de las corrientes eólicas circulantes sobre la superficie terrestre para la producción de electricidad con el fin de abastecer buena parte de la demanda en viviendas aisladas, pequeñas instalaciones agropecuarias, equipamiento de servicio ubicado en lugares remotos, etc. Por lo general estas brisas tienen una baja densidad energética, por ello proponemos una interfaz mecánica que concentre las masas de aire, acelerando su circulación y alcanzando importantes incrementos en la velocidad de impulsión. La primera parte se centra en la elaboración de un procedimiento de caracterización a partir de la metodología científica con el cual modelar una estructura concentradora de flujo eólico válida para un aerogenerador de eje vertical. Este método trata el diseño de un elemento acelerador capaz de optimizar el aprovechamiento de estas brisas con independencia de la dirección de éstas. Su diseño viene dado por la resolución de un conjunto de objetivos fundamentales, dotando al sistema de unas prestaciones particulares en relación a su arquitectura y operatividad. Estos objetivos son los siguientes: - Operatividad ante cualquier dirección eólica adoptada - Incremento del rendimiento potencial de la turbina de eje vertical - Minimizar el desarrollo de efectos turbulentos alrededor del sistema integrado - Capacidad resolutiva ante la presencia de fuertes vientos - Estabilidad estructural - Compatibilidad ante instalaciones propias del volumen arquitectónico - Control global del rendimiento del sistema. La segunda parte aborda el modelado del prototipo y el análisis de su comportamiento mediante simulaciones en el ámbito de la fluidodinámica computacional. El resultado es un prototipo caracterizado por una arquitectura capaz de sectorizar la entrada de viento en diferentes tramos inyectando el flujo eólico estratégicamente. La incorporación de la interfaz sobre el rotor aumenta la superficie de captación eólica, facilitando su entrada a través de las diferentes aberturas y llevando a cabo su concentración según avanza por los tramo de circulación. Una vez finalizado dicho avance, el flujo es inyectado en un rango angular de nido por la elevada fuerza de sustentación capaz de generarse gracias a la incidencia del flujo eólico, aprovechando las particularidades que ofrece la rotación de este tipo de rotores. El resultado de la inyección sectorizada es el desarrollo de una circulación interior vorticial que incide permanentemente en el rango de sustentación característico del perfil aerodinámico que define la geometría de la pala de rotación. Ello provoca que se alcance un funcionamiento nominal a velocidades reducidas. En este proceso se incluyen las acciones necesarias para dar una respuesta eficiente a cualquier tipo e solicitación eólica. En presencia de velocidades de relativa importancia, la interfaz concentradora adapta su arquitectura con el fin de regular la entrada de flujo, retrasando la activación de los dispositivos reguladores propios de la turbina eólica. En presencia de vientos importantes, la interfaz dispone de los mecanismos necesarios para proceder al cierre de las aberturas procediendo a la parada del rotor. La validación de los prototipos elaborados se ha llevado a cabo mediante simulación computacional CFD. Los resultados confirman la consecución de un funcionamiento nominal a velocidades más reducidas, una mayor superficie de captación y periodo de tiempo de funcionamiento efectivo en comparación a las turbinas convencionales. Para el caso práctico modelado los resultados mejoran en más de 2.5 veces la potencia generada y multiplican por cuatro la fuerza ejercida sobre las palas de la turbina. La elaboración de un método preciso para el diseño de este tipo de estructuras concentradoras posibilita que se pueda alcanzar un diseño en función a las necesidades del usuario, o las condiciones eólicas de un emplazamiento dado. A ello hay que unir su compatibilidad de uso y montaje con sistemas de captación solar, conformando un sistema híbrido capaz de aprovechar tanto la energía solar como eólica para el abastecimiento autónomo. Esta característica incrementa el ratio de zonas geográficas donde se puede llevar a cabo su implantación. Las últimas páginas están reservadas a esbozar las líneas futuras de desarrollo y evolución, tanto en términos de e ciencia productiva como en su incorporación a nuevos volúmenes arquitectónicos y estructuras civiles en general.
Resumo:
Esta base de datos es uno de los resultados obtenidos durante la realización del Trabajo Fin de Grado del Grado de Ingeniería Informática de la Universidad de Alicante, de la alumna Patricia Pérez Sallán y dirigido por el Dr. José Vicente Berná Martínez.
Resumo:
El título de este trabajo sugiere que su texto fue preparado para que pudiera servir de ayuda al profesor novel. De hecho puede ser útil a quien quiera que se dedique a la profesión docente. El fenómeno fundamental que tiene lugar en las aulas es la adquisición de conocimientos por parte del alumno. El verbo que denota esta actividad se representa con la palabra aprender. La contribución del profesor consiste en conseguir que se aprenda de una forma selectiva, con “gusto” y eficacia. Se han de aprender unas cosas y no otras, se ha disfrutar de lo que se hace y no se ha de perder tiempo. Aunque la única actividad realmente importante es el aprender de los alumnos, los que hablan del asunto, que son los que saben hablar, como profesores, pedagogos, administradores y políticos, casi siempre han examinado el proceso desde su óptica y la denominan enseñar. Así, al proceso que tiene lugar lo llaman enseñanza. Este punto de vista es tan acentuado que ni siquiera existe la palabra aprendanza y ya va siendo hora que alguien la invente. La palabra aprendizaje se usa cuando lo que se aprende es una acción como leer, escribir, correr, nadar, etc. En este trabajo el lector puede encontrar 70 consejos que pueden servir de ayuda al novel profesor en su labor de dirigir la aprendanza de sus alumnos, contando con un bagaje algo más amplio que la simple intuición. En el ejercicio de la docencia todos nos hemos encontrado en situaciones apuradas. Para salir de ellas hemos tenido que optar por utilizar métodos más allá del dominio de la materia. En este trabajo se ofrecen algunos ejemplos de estos métodos que pueden ser utilizados con ventaja. Hay más. Confío que figurarán en sucesivas ediciones. Cada lector tendrá que decidir cuales son los más adecuados a su situación. A lo largo de los 70 consejos existe un talante inspirador. Algo así como si los autores siguieran un meta-consejo que les guíara y se reflejara en todas partes, sin deletrearse en ninguna. Me voy a tomar la libertad de hacerlo yo, sin su permiso. Consejo 0.1 Enamórate de tu profesión. Es preciosa. No hay espectáculo más fabuloso que ver como la mente de un alumno se va abriendo como una flor en primavera y es una gozada saberse parte del proceso. José Miró Nicolau Palma de Mallorca, Junio de 2005.
Resumo:
Since the beginning of 3D computer vision problems, the use of techniques to reduce the data to make it treatable preserving the important aspects of the scene has been necessary. Currently, with the new low-cost RGB-D sensors, which provide a stream of color and 3D data of approximately 30 frames per second, this is getting more relevance. Many applications make use of these sensors and need a preprocessing to downsample the data in order to either reduce the processing time or improve the data (e.g., reducing noise or enhancing the important features). In this paper, we present a comparison of different downsampling techniques which are based on different principles. Concretely, five different downsampling methods are included: a bilinear-based method, a normal-based, a color-based, a combination of the normal and color-based samplings, and a growing neural gas (GNG)-based approach. For the comparison, two different models have been used acquired with the Blensor software. Moreover, to evaluate the effect of the downsampling in a real application, a 3D non-rigid registration is performed with the data sampled. From the experimentation we can conclude that depending on the purpose of the application some kernels of the sampling methods can improve drastically the results. Bilinear- and GNG-based methods provide homogeneous point clouds, but color-based and normal-based provide datasets with higher density of points in areas with specific features. In the non-rigid application, if a color-based sampled point cloud is used, it is possible to properly register two datasets for cases where intensity data are relevant in the model and outperform the results if only a homogeneous sampling is used.
Resumo:
In many classification problems, it is necessary to consider the specific location of an n-dimensional space from which features have been calculated. For example, considering the location of features extracted from specific areas of a two-dimensional space, as an image, could improve the understanding of a scene for a video surveillance system. In the same way, the same features extracted from different locations could mean different actions for a 3D HCI system. In this paper, we present a self-organizing feature map able to preserve the topology of locations of an n-dimensional space in which the vector of features have been extracted. The main contribution is to implicitly preserving the topology of the original space because considering the locations of the extracted features and their topology could ease the solution to certain problems. Specifically, the paper proposes the n-dimensional constrained self-organizing map preserving the input topology (nD-SOM-PINT). Features in adjacent areas of the n-dimensional space, used to extract the feature vectors, are explicitly in adjacent areas of the nD-SOM-PINT constraining the neural network structure and learning. As a study case, the neural network has been instantiate to represent and classify features as trajectories extracted from a sequence of images into a high level of semantic understanding. Experiments have been thoroughly carried out using the CAVIAR datasets (Corridor, Frontal and Inria) taken into account the global behaviour of an individual in order to validate the ability to preserve the topology of the two-dimensional space to obtain high-performance classification for trajectory classification in contrast of non-considering the location of features. Moreover, a brief example has been included to focus on validate the nD-SOM-PINT proposal in other domain than the individual trajectory. Results confirm the high accuracy of the nD-SOM-PINT outperforming previous methods aimed to classify the same datasets.
Resumo:
Interdisciplinary projects in the industry typically require collaboration between professionals from various fields. However, this relationship is not generally addressed in the training offered by university programs, which often ignore this interdisciplinary approach. This paper offers an example of interdisciplinary interaction through joint laboratory activities in the curricula of two very different degree programs, i.e., Multimedia Engineering and Teacher Training in Primary Education. The programs' students formed an interdisciplinary team of multimedia engineers and trainee teachers to develop a Web product for children's cognitive development. The complexity of the task required students to engage in close and strong interdisciplinary cooperation and communication; in turn, they benefited from the synergy offered by collaborative work. The results of this paper, presented from the perspective of the multimedia engineering students, demonstrate a significant increase in their academic performance compared to the control group. This paper shows that university studies can incorporate an interdisciplinary perspective to engineering education without the need to introduce a specific course on the topic, thus avoiding further demands on the curriculum schedule.
Resumo:
Diferentes autores se refieren a la fabricación digital como la Tercera Revolución Digital, después de las revoluciones de la computación y la comunicación. Como ocurriera con las dos revoluciones precedentes, se generaron grandes expectativas en torno a las virtualidades políticas de estas nuevas tecnologías para dar lugar a relaciones de producción más libres e individuos más autónomos. Sin embargo, como también ocurriera con la computación y la comunicación, lo que realmente está ocurriendo demuestra que las supuestas virtualidades no llegarán a hacerse actuales sin una intensa implicación, organización y trabajo por parte de sectores activistas técnicos y sociales. Se discute el caso de la compra corporativa de la empresa pionera de hardware libre Makerbot, como ejemplo de la situación y punto de inflexión en las expectativas de los nuevos tecno-visionarios. Para concluir se propone una serie de posibles estrategias que podrían promover el desarrollo efectivo de un ecosistema libre y open source de fabricación digital.
Resumo:
In this work, a modified version of the elastic bunch graph matching (EBGM) algorithm for face recognition is introduced. First, faces are detected by using a fuzzy skin detector based on the RGB color space. Then, the fiducial points for the facial graph are extracted automatically by adjusting a grid of points to the result of an edge detector. After that, the position of the nodes, their relation with their neighbors and their Gabor jets are calculated in order to obtain the feature vector defining each face. A self-organizing map (SOM) framework is shown afterwards. Thus, the calculation of the winning neuron and the recognition process are performed by using a similarity function that takes into account both the geometric and texture information of the facial graph. The set of experiments carried out for our SOM-EBGM method shows the accuracy of our proposal when compared with other state-of the-art methods.
Resumo:
En esta memoria se describe el proyecto realizado para la evaluación de la implantación transversal del itinerario de Creación y Entretenimiento digital del cuarto curso del Grado en Ingeniería Multimedia de la Escuela Politécnica Superior, como continuación del planteamiento realizado en el proyecto del curso anterior de preparación, coordinación y seguimiento de las asignaturas del citado itinerario (identificador 3013). En el marco creado por los nuevos estudios dentro del EEES, el proyecto ha tenido como objetivos principales la preparación y coordinación de las asignaturas para el desarrollo de la metodología de Aprendizaje Basado en Proyectos (ABP), y la elaboración de las fichas de las asignaturas y el ajuste de recursos disponibles y laboratorios. A partir de la experiencia adquirida en la planificación de cursos previos, se han elaborado las guías docentes de las asignaturas ajustando las del curso anterior. También se presentan los resultados obtenidos en la segunda experiencia llevada a cabo en este curso, expresados en horas de dedicación al proyecto y en grado de satisfacción tanto del alumnado como del profesorado con la metodología ABP. Por último, se ha mantenido la página web informativa del itinerario creada el curso anterior, publicando noticias relacionadas y mejorando diversos aspectos.