58 resultados para tecnologías digitales CAD-CAM-CAE


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper a new technique for partial product reduction based on the use of look-up tables for efficient processing is presented. We describe how to construct counter devices with pre-calculated data and their subsequent integration into the whole operation. The development of reduction trees organizations for this kind of devices uses the inherent integration benefits of computer memories and offers an alternative implementation to classic operation methods. Therefore, in our experiments we compare our implementation model with CMOS technology model in homogeneous terms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Feature selection is an important and active issue in clustering and classification problems. By choosing an adequate feature subset, a dataset dimensionality reduction is allowed, thus contributing to decreasing the classification computational complexity, and to improving the classifier performance by avoiding redundant or irrelevant features. Although feature selection can be formally defined as an optimisation problem with only one objective, that is, the classification accuracy obtained by using the selected feature subset, in recent years, some multi-objective approaches to this problem have been proposed. These either select features that not only improve the classification accuracy, but also the generalisation capability in case of supervised classifiers, or counterbalance the bias toward lower or higher numbers of features that present some methods used to validate the clustering/classification in case of unsupervised classifiers. The main contribution of this paper is a multi-objective approach for feature selection and its application to an unsupervised clustering procedure based on Growing Hierarchical Self-Organising Maps (GHSOMs) that includes a new method for unit labelling and efficient determination of the winning unit. In the network anomaly detection problem here considered, this multi-objective approach makes it possible not only to differentiate between normal and anomalous traffic but also among different anomalies. The efficiency of our proposals has been evaluated by using the well-known DARPA/NSL-KDD datasets that contain extracted features and labelled attacks from around 2 million connections. The selected feature sets computed in our experiments provide detection rates up to 99.8% with normal traffic and up to 99.6% with anomalous traffic, as well as accuracy values up to 99.12%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The use of microprocessor-based systems is gaining importance in application domains where safety is a must. For this reason, there is a growing concern about the mitigation of SEU and SET effects. This paper presents a new hybrid technique aimed to protect both the data and the control-flow of embedded applications running on microprocessors. On one hand, the approach is based on software redundancy techniques for correcting errors produced in the data. On the other hand, control-flow errors can be detected by reusing the on-chip debug interface, existing in most modern microprocessors. Experimental results show an important increase in the system reliability even superior to two orders of magnitude, in terms of mitigation of both SEUs and SETs. Furthermore, the overheads incurred by our technique can be perfectly assumable in low-cost systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mathematical morphology addresses the problem of describing shapes in an n-dimensional space using the concepts of set theory. A series of standardized morphological operations are defined, and they are applied to the shapes to transform them using another shape called the structuring element. In an industrial environment, the process of manufacturing a piece is based on the manipulation of a primitive object via contact with a tool that transforms the object progressively to obtain the desired design. The analogy with the morphological operation of erosion is obvious. Nevertheless, few references about the relation between the morphological operations and the process of design and manufacturing can be found. The non-deterministic nature of classic mathematical morphology makes it very difficult to adapt their basic operations to the dynamics of concepts such as the ordered trajectory. A new geometric model is presented, inspired by the classic morphological paradigm, which can define objects and apply morphological operations that transform these objects. The model specializes in classic morphological operations, providing them with the determinism inherent in dynamic processes that require an order of application, as is the case for designing and manufacturing objects in professional computer-aided design and manufacturing (CAD/CAM) environments. The operators are boundary-based so that only the points in the frontier are handled. As a consequence, the process is more efficient and more suitable for use in CAD/CAM systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Human tremor can be defined as a somewhat rhythmic and quick movement of one or more body parts. In some people, it is a symptom of a neurological disorder. From the mathematical point of view, human tremor can be defined as a weighted contribution of different sinusoidal signals which causes oscillations of some parts of the body. This sinusoidal is repeated over time, but its amplitude and frequency change slowly. This is why amplitude and frequency are considered important factors in the tremor characterization, and thus for its diagnosis. In this paper, a tool for the prediagnosis of the human tremor is presented. This tool uses a low cost device (<$40) and allows to compute the main factors of the human tremor accurately. Real cases have been tested using the algorithms developed in this investigation. The patients suffered from different tremor severities, and the components of amplitude and frequency were computed using a series of tests. These additional measures will help the experts to make better diagnoses allowing them to focus on specific stages of the test or get an overview of these tests. From the experimental, we stated that not all tests are valid for every patient to give a diagnosis. Guided by years of experience, the expert will decide which test or set of tests are the most appropriate for a patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta memoria se describe el proyecto llevado a cabo para mejorar el seguimiento y la calidad de la docencia de las asignaturas del tercer curso del Grado en Ingeniería Informática. En concreto, en este proyecto, nos centramos en los mecanismos de evaluación y en su distribución a lo largo del curso, así como en los conceptos fundamentales que se asocian a las diferentes asignaturas que se imparten en tercer curso del Grado en Ingeniería Informática. Se realizaron diversas reuniones entre los coordinadores de las distintas asignaturas para poner en común problemas relacionados con la planificación de las asignaturas así como dudas sobre las actividades de evaluación. Las reuniones permitieron intercambiar diferentes planteamientos con los que se habían abordado la evaluación de las asignaturas participantes en la red y que posibilitaron resolver problemas comunes. De igual forma se plantearon cuestiones abiertas sobre la planificación y la evaluación de las asignaturas que se dirigieron desde la red a la coordinación de la titulación en la Escuela Politécnica Superior. Finalmente, también se discutieron diferentes propuestas junto con las redes de otros cursos de la titulación para abordarlas en futuras redes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta memoria se describe el proyecto llevado para establecer los mecanismos y procedimientos para el seguimiento y control de calidad de las asignaturas del segundo curso del Grado en Ingeniería Multimedia, curso 2013/2014. En concreto, los mecanismos de control se centran en la planificación de las sesiones docentes y las actividades de evaluación llevadas a cabo en cada una de dichas asignaturas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante el presente curso se ha constatado el asentamiento del tercer curso del grado en Ingeniería Multimedia, lo que se deriva de los informes de seguimiento de las asignaturas del curso que, en su gran mayoría, no han destacado problema alguno (con alguna excepción de la que se informa). Por otro lado, se ha llevado a cabo una iniciativa para contrastar si las dependencias entre las asignaturas de tercero con respecto a sus precedentes en el plan de estudios responden en realidad a los planteamientos que se hicieron durante el diseño del mismo, intentando descubrir carencias o inconsistencias en los contenidos. De esta manera, se han detectado dependencias que no son tales, dependencias que faltan y temarios de asignaturas básicas en los que, desde el punto de vista de las asignaturas de tercero faltan o sobran contenidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo expondremos un análisis exhaustivo de como se ha desarrollado la acción tutorial en la Escuela Politécnica Superior de la Universidad de Alicante en el curso 2014/2015. El marcado carácter de voluntariedad de la acción tutorial en nuestro centro por parte de estudiantes y tutores permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los estudiantes, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Además expondremos nuestras experiencias en el desarrollo del Taller de Gestión Eficaz del Tiempo, taller desarrollado en nuestro centro bajo la tutela de la experta Nuria Alberquilla, que tiene entre otros muchos objetivos el aprendizaje y puesta en práctica de técnicas para realizar una gestión eficaz del tiempo, con un mejor equilibrio entre la vida académica y personal y la identificación de los principales factores externos e internos que influyen en los resultados obtenidos, y cómo mejorarlos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al igual que en cursos anteriores en la Escuela Politécnica se desarrolla, promovido por el Vicerrectorado de Estudios, Formación y Calidad, coordinado desde el Instituto de Ciencias de la Educación, el Plan de Acción Tutorial (PAT) el cual está abierto a todos aquellos tutores que deseen formar parte del plan y también a todos los estudiantes, que, voluntariamente pueden marcar la opción de participar en el plan en la matrícula, y también a aquellos que, a pesar de no marcar la opción en la matrícula, finalmente han decidido seguir el plan de acción tutorial. Esta característica de participación e inscripción voluntaria permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los estudiantes, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Con este resumen nos proponemos presentar nuestras experiencias en el desarrollo del PAT de nuestro centro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The evidence suggests that emotional intelligence and personality traits are important qualities that workers need in order to successfully exercise a profession. This article assumes that the main purpose of universities is to promote employment by providing an education that facilitates the acquisition of abilities, skills, competencies and values. In this study, the emotional intelligence and personality profiles of two groups of Spanish students studying degrees in two different academic disciplines – computer engineering and teacher training – were analysed and compared. In addition, the skills forming part of the emotional intelligence and personality traits required by professionals (computer engineers and teachers) in their work were studied, and the profiles obtained for the students were compared with those identified by the professionals in each field. Results revealed significant differences between the profiles of the two groups of students, with the teacher training students scoring higher on interpersonal skills; differences were also found between professionals and students for most competencies, with professionals in both fields demanding more competencies that those evidenced by graduates. The implications of these results for the incorporation of generic social, emotional and personal competencies into the university curriculum are discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, we propose the use of the neural gas (NG), a neural network that uses an unsupervised Competitive Hebbian Learning (CHL) rule, to develop a reverse engineering process. This is a simple and accurate method to reconstruct objects from point clouds obtained from multiple overlapping views using low-cost sensors. In contrast to other methods that may need several stages that include downsampling, noise filtering and many other tasks, the NG automatically obtains the 3D model of the scanned objects. To demonstrate the validity of our proposal we tested our method with several models and performed a study of the neural network parameterization computing the quality of representation and also comparing results with other neural methods like growing neural gas and Kohonen maps or classical methods like Voxel Grid. We also reconstructed models acquired by low cost sensors that can be used in virtual and augmented reality environments for redesign or manipulation purposes. Since the NG algorithm has a strong computational cost we propose its acceleration. We have redesigned and implemented the NG learning algorithm to fit it onto Graphics Processing Units using CUDA. A speed-up of 180× faster is obtained compared to the sequential CPU version.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software-based techniques offer several advantages to increase the reliability of processor-based systems at very low cost, but they cause performance degradation and an increase of the code size. To meet constraints in performance and memory, we propose SETA, a new control-flow software-only technique that uses assertions to detect errors affecting the program flow. SETA is an independent technique, but it was conceived to work together with previously proposed data-flow techniques that aim at reducing performance and memory overheads. Thus, SETA is combined with such data-flow techniques and submitted to a fault injection campaign. Simulation and neutron induced SEE tests show high fault coverage at performance and memory overheads inferior to the state-of-the-art.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El temblor humano puede definirse como un movimiento rápido y, en cierta manera, rítmico de una o más partes del cuerpo. En algunas personas, este movimiento puede ser un síntoma de alguna alteración a nivel neurológico. Desde el punto de vista matemático, el temblor humano puede ser definido como una suma ponderada de diferentes señales sinusoidales que causan oscilaciones de algunas partes del cuerpo. Esta sinusoide se repite en el tiempo pero su amplitud y frecuencia cambian lentamente. Por esta razón, la amplitud y la frecuencia son consideradas factores importantes en la clasificación del temblor y por tanto útiles en su diagnóstico. En este artículo, se presenta una herramienta de ayuda al diagnóstico del temblor humano. Esta herramienta usa un dispositivo hardware de bajo coste (<$40) y permite calcular las principales componentes de esta sinusoide asociada al temblor de una manera precisa. Como casos de estudio se presentan su aplicación a dos casos reales para probar la bondad de los algoritmos desarrollados. Los casos muestran pacientes que sufrían temblores con distinta severidad y que han realizado una serie de tests con el dispositivo para que el sistema calculara las principales componentes del temblor. Estas medidas aportadas por el sistema ayudarían en un futuro a los expertos a tomar decisiones más precisas permitiéndoles centrarse en determinadas fases del test o la realización de tests más específicos para evaluar mejor las características propias del temblor del paciente. De la experimentación realizada podemos afirmar que no todos los tests son válidos para el diagnóstico para todos los pacientes. Será finalmente la experiencia del profesional el que decidirá finalmente qué test o conjunto de tests son los más apropiados para cada paciente.