950 resultados para tecnologías digitales CAD-CAM-CAE
Resumo:
Commercial off-the-shelf microprocessors are the core of low-cost embedded systems due to their programmability and cost-effectiveness. Recent advances in electronic technologies have allowed remarkable improvements in their performance. However, they have also made microprocessors more susceptible to transient faults induced by radiation. These non-destructive events (soft errors), may cause a microprocessor to produce a wrong computation result or lose control of a system with catastrophic consequences. Therefore, soft error mitigation has become a compulsory requirement for an increasing number of applications, which operate from the space to the ground level. In this context, this paper uses the concept of selective hardening, which is aimed to design reduced-overhead and flexible mitigation techniques. Following this concept, a novel flexible version of the software-based fault recovery technique known as SWIFT-R is proposed. Our approach makes possible to select different registers subsets from the microprocessor register file to be protected on software. Thus, design space is enriched with a wide spectrum of new partially protected versions, which offer more flexibility to designers. This permits to find the best trade-offs between performance, code size, and fault coverage. Three case studies have been developed to show the applicability and flexibility of the proposal.
Resumo:
The design of fault tolerant systems is gaining importance in large domains of embedded applications where design constrains are as important as reliability. New software techniques, based on selective application of redundancy, have shown remarkable fault coverage with reduced costs and overheads. However, the large number of different solutions provided by these techniques, and the costly process to assess their reliability, make the design space exploration a very difficult and time-consuming task. This paper proposes the integration of a multi-objective optimization tool with a software hardening environment to perform an automatic design space exploration in the search for the best trade-offs between reliability, cost, and performance. The first tool is commanded by a genetic algorithm which can simultaneously fulfill many design goals thanks to the use of the NSGA-II multi-objective algorithm. The second is a compiler-based infrastructure that automatically produces selective protected (hardened) versions of the software and generates accurate overhead reports and fault coverage estimations. The advantages of our proposal are illustrated by means of a complex and detailed case study involving a typical embedded application, the AES (Advanced Encryption Standard).
Resumo:
The retina is a very complex neural structure, which performs spatial, temporal, and chromatic processing on visual information and converts it into a compact ‘digital’ format composed of neural impulses. This paper presents a new compiler-based framework able to describe, simulate and validate custom retina models. The framework is compatible with the most usual neural recording and analysis tools, taking advantage of the interoperability with these kinds of applications. Furthermore it is possible to compile the code to generate accelerated versions of the visual processing models compatible with COTS microprocessors, FPGAs or GPUs. The whole system represents an ongoing work to design and develop a functional visual neuroprosthesis. Several case studies are described to assess the effectiveness and usefulness of the framework.
Resumo:
La incorporación del EEES provocó una infinidad de desafíos y retos a las Universidades que a día de hoy aún están siendo solucionados. Además, ha conllevado nuevas oportunidades para la formación de estudiantes pero también para las Universidades. Entre ellas, la formación interuniversitaria entre estados miembro de la UE. El EEES permite unificar a través del sistema ECTS la carga de trabajo de los estudiantes facilitando la propuesta de planes de estudios interuniversitarios. Sin embargo, surgen desafíos a la hora de llevarlos a la práctica. Independientemente de los retos en la propuesta de los planes de estudio, es necesario implementar procesos de enseñanza-aprendizaje que salven la distancia en el espacio físico entre el alumnado y el profesorado. En este artículo se presenta la experiencia docente de la asignatura e-home del Máster Machine Learning and Data Mining de la Universidad de Alicante y la Universidad Jean Monnet (Francia). En este caso, se combina la formación en aula presencial con formación en aula virtual a través de videoconferencia. La evaluación del método de enseñanza-aprendizaje propuesto utiliza la propia experiencia docente y encuestas realizadas a los alumnos para poner de manifiesto la ruptura de barreras espaciales y un éxito a nivel docente.
Resumo:
El PAT en la Escuela Politécnica está abierto a todos aquellos tutores que deseen formar parte del plan y también a todos los alumnos, que, voluntariamente pueden marcar la opción de participar en el plan en la matrícula, y también a aquellos que, a pesar de no marcar la opción en la matrícula, finalmente han decidido seguir el plan de acción tutorial. Esta característica de participación e inscripción voluntaria permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los alumnos, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Con este trabajo nos proponemos presentar nuestras experiencias en el desarrollo de la tutorización de nuestros estudiantes así como la evolución en el desarrollo de la tutorización por pares.
Resumo:
La implantación de los cursos tanto de grado como de máster requiere de una continua evaluación y revisión desde el punto de vista de sus contenidos específicos, planificación, evaluación, etc. con el fin de mejorar año a año el proceso de enseñanza-aprendizaje asociado a cada asignatura de forma individual, además de con el fin de mejorar la coordinación entre las diferentes asignaturas. En ese sentido, en el presente trabajo se analiza la materia de electrónica y todas las asignaturas que la integran en el Grado de Ingeniería en Sonido e Imagen en Telecomunicación, y en el Máster en Ingeniería de Telecomunicación, dado que en este caso podemos considerar los estudios de este máster como una continuación natural de los estudios previos del grado correspondiente. En concreto, los objetivos principales del presente trabajo son el seguimiento, coordinación, evaluación y mejora en la distribución de competencias de las asignaturas obligatorias de los cursos primero y segundo del Grado en Ingeniería en Sonido e Imagen en Telecomunicación y las asignaturas obligatorias del Máster en Ingeniería de Telecomunicación.
Resumo:
El Máster Universitario en Ingeniería de Telecomunicación en la Universidad de Alicante es el título que se imparte desde la Escuela Politécnica Superior y que habilita para el ejercicio de la profesión regulada de Ingeniero de Telecomunicación. Consta de 90 ECTS y se imparte a lo largo de 2 cursos académicos. El máster está implantado desde el curso 2011-2012 por lo que durante el actual curso 2012-2013 tendremos egresados de la primera promoción. Una vez implantado en su totalidad, es posible realizar un seguimiento del máster con la intención de obtener la excelencia académica mediante todas aquellas medidas y procesos de evaluación internos que sean necesarios. Además también es conveniente evaluar el impacto social, universitario y empresarial del máster evaluando las carencias, lagunas y oportunidades de formación que se detecten y tomando las oportunas medidas correctoras. Será necesario tener en cuenta la relación del título con el mundo empresarial y con la sociedad en general que tiene el sector de las telecomunicaciones en la evaluación de la calidad docente en el aula.
Resumo:
Our eyes never remain still. Even when we stare at a fixed point, small involuntary movements take place in our eyes in an imperceptible manner. Researchers agree on the presence of three main contributions to eye movements when we fix the gaze: microsaccades, drifts and tremor. These small movements carry the image across the retina stimulating the photoreceptors and thus avoiding fading. Nowadays it is commonly accepted that these movements can improve the discrimination performance of the retina. In this paper, several retina models with and without fixational eye movements were implemented by mean of RetinaStudio tool to test the feasibility of these models to be incorporated in future neuroprostheses. For this purpose each retina model has been stimulated with natural scene images in two experiments. Results are discussed from the point of view of a neuroprosthesis development.
Resumo:
Actualmente nos enfrentamos a nuevos desafíos en el mundo de la educación. Entre las cuestiones más importantes se encuentra el grado de participación y compromiso de los estudiantes en su propio proceso de aprendizaje y esto implica que deban participar en su evaluación de manera activa. Así, en este artículo se presenta un nuevo método de evaluación empleado en la asignatura “Arquitecturas y Sistemas Operativos para Tiempo Real”, del título de Ingeniería Informática de la Universidad de Alicante. En este novedoso método, los alumnos participan en el proceso de evaluación de sus propios trabajos por medio de revisiones cruzadas (peer-reviewing) que pretenden identificar las carencias o errores en los trabajos presentados por sus compañeros de asignatura. En pocas semanas los estudiantes pueden entender la innovadora visión del proceso de enseñanza-aprendizaje empleado en nuestra asignatura y se involucran activamente en dicho proceso; con todo ello, sus conocimientos han de actualizarse de manera continua, por lo que son capaces de entender y asimilar los nuevos conceptos explicados por el profesor.
Resumo:
SLAM is a popular task used by robots and autonomous vehicles to build a map of an unknown environment and, at the same time, to determine their location within the map. This paper describes a SLAM-based, probabilistic robotic system able to learn the essential features of different parts of its environment. Some previous SLAM implementations had computational complexities ranging from O(Nlog(N)) to O(N2), where N is the number of map features. Unlike these methods, our approach reduces the computational complexity to O(N) by using a model to fuse the information from the sensors after applying the Bayesian paradigm. Once the training process is completed, the robot identifies and locates those areas that potentially match the sections that have been previously learned. After the training, the robot navigates and extracts a three-dimensional map of the environment using a single laser sensor. Thus, it perceives different sections of its world. In addition, in order to make our system able to be used in a low-cost robot, low-complexity algorithms that can be easily implemented on embedded processors or microcontrollers are used.
Resumo:
En el ámbito empresarial es común que profesionales de distintas áreas colaboren entre ellos para la realización de proyectos multidisciplinares. Sin embargo esta relación no suele tener un reflejo directo en la formación ofrecida en los estudios universitarios, que carecen de dicho carácter multidisciplinar. Este artículo es una continuación de un trabajo previo donde se propuso una metodología para el diseño de planes de estudios comunes para los grados de Ingeniería Multimedia y Magisterio, donde los estudiantes de ambas titulaciones pudieran relacionarse en un entorno de trabajo realista para la realización de prácticas de laboratorio comunes. En particular, la práctica interdisciplinar se centró en la realización por parte de los estudiantes de multimedia y magisterio de herramientas web que pudieran ser utilizadas en el futuro por los docentes en aulas escolares. En este artículo se recoge la experiencia llevada a cabo en el curso 2012/2013 en la Universidad de Alicante así como el análisis de los resultados obtenidos tras la realización de las prácticas. Las prácticas se realizaron siguiendo la metodología propuesta y teniendo en cuenta los aspectos de coordinación, supervisión, seguimiento y evaluación establecidos en dicha metodología.
Resumo:
Modern compilers present a great and ever increasing number of options which can modify the features and behavior of a compiled program. Many of these options are often wasted due to the required comprehensive knowledge about both the underlying architecture and the internal processes of the compiler. In this context, it is usual, not having a single design goal but a more complex set of objectives. In addition, the dependencies between different goals are difficult to be a priori inferred. This paper proposes a strategy for tuning the compilation of any given application. This is accomplished by using an automatic variation of the compilation options by means of multi-objective optimization and evolutionary computation commanded by the NSGA-II algorithm. This allows finding compilation options that simultaneously optimize different objectives. The advantages of our proposal are illustrated by means of a case study based on the well-known Apache web server. Our strategy has demonstrated an ability to find improvements up to 7.5% and up to 27% in context switches and L2 cache misses, respectively, and also discovers the most important bottlenecks involved in the application performance.
Resumo:
La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.
Resumo:
In this paper a new technique for partial product reduction based on the use of look-up tables for efficient processing is presented. We describe how to construct counter devices with pre-calculated data and their subsequent integration into the whole operation. The development of reduction trees organizations for this kind of devices uses the inherent integration benefits of computer memories and offers an alternative implementation to classic operation methods. Therefore, in our experiments we compare our implementation model with CMOS technology model in homogeneous terms.
Resumo:
Feature selection is an important and active issue in clustering and classification problems. By choosing an adequate feature subset, a dataset dimensionality reduction is allowed, thus contributing to decreasing the classification computational complexity, and to improving the classifier performance by avoiding redundant or irrelevant features. Although feature selection can be formally defined as an optimisation problem with only one objective, that is, the classification accuracy obtained by using the selected feature subset, in recent years, some multi-objective approaches to this problem have been proposed. These either select features that not only improve the classification accuracy, but also the generalisation capability in case of supervised classifiers, or counterbalance the bias toward lower or higher numbers of features that present some methods used to validate the clustering/classification in case of unsupervised classifiers. The main contribution of this paper is a multi-objective approach for feature selection and its application to an unsupervised clustering procedure based on Growing Hierarchical Self-Organising Maps (GHSOMs) that includes a new method for unit labelling and efficient determination of the winning unit. In the network anomaly detection problem here considered, this multi-objective approach makes it possible not only to differentiate between normal and anomalous traffic but also among different anomalies. The efficiency of our proposals has been evaluated by using the well-known DARPA/NSL-KDD datasets that contain extracted features and labelled attacks from around 2 million connections. The selected feature sets computed in our experiments provide detection rates up to 99.8% with normal traffic and up to 99.6% with anomalous traffic, as well as accuracy values up to 99.12%.