825 resultados para Computación Efímera
Resumo:
El Máster Universitario en Ingeniería de Telecomunicación en la Universidad de Alicante es el título que se imparte desde la Escuela Politécnica Superior y que habilita para el ejercicio de la profesión regulada de Ingeniero de Telecomunicación. Consta de 90 ECTS y se imparte a lo largo de 2 cursos académicos. El máster está implantado desde el curso 2011-2012 por lo que durante el actual curso 2012-2013 tendremos egresados de la primera promoción. Una vez implantado en su totalidad, es posible realizar un seguimiento del máster con la intención de obtener la excelencia académica mediante todas aquellas medidas y procesos de evaluación internos que sean necesarios. Además también es conveniente evaluar el impacto social, universitario y empresarial del máster evaluando las carencias, lagunas y oportunidades de formación que se detecten y tomando las oportunas medidas correctoras. Será necesario tener en cuenta la relación del título con el mundo empresarial y con la sociedad en general que tiene el sector de las telecomunicaciones en la evaluación de la calidad docente en el aula.
Resumo:
Our eyes never remain still. Even when we stare at a fixed point, small involuntary movements take place in our eyes in an imperceptible manner. Researchers agree on the presence of three main contributions to eye movements when we fix the gaze: microsaccades, drifts and tremor. These small movements carry the image across the retina stimulating the photoreceptors and thus avoiding fading. Nowadays it is commonly accepted that these movements can improve the discrimination performance of the retina. In this paper, several retina models with and without fixational eye movements were implemented by mean of RetinaStudio tool to test the feasibility of these models to be incorporated in future neuroprostheses. For this purpose each retina model has been stimulated with natural scene images in two experiments. Results are discussed from the point of view of a neuroprosthesis development.
Resumo:
En la asignatura Sistemas Inteligentes del grado en Ingeniería Informática, durante el curso 2012-13, se planteó a los estudiantes un sistema de evaluación de la parte teórica consistente en la realización de controles on-line utilizando cuestionarios Moodle. Para la elaboración de los cuestionarios, se elegirían preguntas propuestas por los estudiantes en cada uno de los foros temáticos correspondientes. De cada tema se creó una base de preguntas Moodle para la generación con restricciones de cuestionarios aleatorios. El funcionamiento de los foros de aportación de preguntas partía de un foro creado para cada tema donde los estudiantes iban añadiendo un hilo para cada pregunta que proponían. En el hilo se producía el debate y participación de los estudiantes relativo al contenido y calidad de la pregunta. Una vez cerrado cada foro, los profesores seleccionaban las que cumplían requisitos de calidad, creando así la base de preguntas de los cuestionarios Moodle. La asignatura ha tenido más de 120 estudiantes, con 14 foros, lo que ha hecho que se superaran los 1.500 hilos de preguntas. En este artículo se presenta la encuesta de valoración por parte de los estudiantes, así como detalles de participación en los foros, los resultados obtenidos y las conclusiones. Deseamos destacar el soporte de la “Red de Investigación en Sistemas Inteligentes. Uso de los foros Moodle en la metodología docente” para realizar este estudio. Código de Red ICE: 2847.
Resumo:
Actualmente nos enfrentamos a nuevos desafíos en el mundo de la educación. Entre las cuestiones más importantes se encuentra el grado de participación y compromiso de los estudiantes en su propio proceso de aprendizaje y esto implica que deban participar en su evaluación de manera activa. Así, en este artículo se presenta un nuevo método de evaluación empleado en la asignatura “Arquitecturas y Sistemas Operativos para Tiempo Real”, del título de Ingeniería Informática de la Universidad de Alicante. En este novedoso método, los alumnos participan en el proceso de evaluación de sus propios trabajos por medio de revisiones cruzadas (peer-reviewing) que pretenden identificar las carencias o errores en los trabajos presentados por sus compañeros de asignatura. En pocas semanas los estudiantes pueden entender la innovadora visión del proceso de enseñanza-aprendizaje empleado en nuestra asignatura y se involucran activamente en dicho proceso; con todo ello, sus conocimientos han de actualizarse de manera continua, por lo que son capaces de entender y asimilar los nuevos conceptos explicados por el profesor.
Resumo:
SLAM is a popular task used by robots and autonomous vehicles to build a map of an unknown environment and, at the same time, to determine their location within the map. This paper describes a SLAM-based, probabilistic robotic system able to learn the essential features of different parts of its environment. Some previous SLAM implementations had computational complexities ranging from O(Nlog(N)) to O(N2), where N is the number of map features. Unlike these methods, our approach reduces the computational complexity to O(N) by using a model to fuse the information from the sensors after applying the Bayesian paradigm. Once the training process is completed, the robot identifies and locates those areas that potentially match the sections that have been previously learned. After the training, the robot navigates and extracts a three-dimensional map of the environment using a single laser sensor. Thus, it perceives different sections of its world. In addition, in order to make our system able to be used in a low-cost robot, low-complexity algorithms that can be easily implemented on embedded processors or microcontrollers are used.
Resumo:
Integration is currently a key factor in intelligent transportation systems (ITS), especially because of the ever increasing service demands originating from the ITS industry and ITS users. The current ITS landscape is made up of multiple technologies that are tightly coupled, and its interoperability is extremely low, which limits ITS services generation. Given this fact, novel information technologies (IT) based on the service-oriented architecture (SOA) paradigm have begun to introduce new ways to address this problem. The SOA paradigm allows the construction of loosely coupled distributed systems that can help to integrate the heterogeneous systems that are part of ITS. In this paper, we focus on developing an SOA-based model for integrating information technologies (IT) into ITS to achieve ITS service delivery. To develop our model, the ITS technologies and services involved were identified, catalogued, and decoupled. In doing so, we applied our SOA-based model to integrate all of the ITS technologies and services, ranging from the lowest-level technical components, such as roadside unit as a service (RS S), to the most abstract ITS services that will be offered to ITS users (value-added services). To validate our model, a functionality case study that included all of the components of our model was designed.
Resumo:
Nowadays, the intensive use of Technology Information (TI) provide solutions to problems of the high population density, energy conservation and cities management. This produces a newest concept of the city, Smart City. But the inclusion of TI in the city brings associated new problems, specifically the generation of electromagnetic fields from the available and new technological infrastructures installed in the city that did not exist before. This new scenario produces a negative effect on a particular group of the society, as are the group of persons with electromagnetic hypersensitivity pathology. In this work we propose a system that would allow you to detect and prevent the continuous exposure to such electromagnetic fields, without the need to include more devices or infrastructure which would only worsen these effects. Through the use of the architecture itself and Smart City services, it is possible to infer the necessary knowledge to know the situation of the EMF radiation and thus allow users to avoid the areas of greatest conflict. This knowledge, not only allows us to get EMF current map of the city, but also allows you to generate predictions and detect future risk situations.
Resumo:
Today, faced with the constant rise of the Smart cities around the world, there is an exponential increase of the use and deployment of information technologies in the cities. The intensive use of Information Technology (IT) in these ecosystems facilitates and improves the quality of life of citizens, but in these digital communities coexist individuals whose health is affected developing or increasing diseases such as electromagnetic hypersensitivity. In this paper we present a monitoring, detection and prevention system to help this group, through which it is reported the rates of electromagnetic radiation in certain areas, based on the information that the own Smart City gives us. This work provides a perfect platform for the generation of predictive models for detection of future states of risk for humans.
Resumo:
En el ámbito empresarial es común que profesionales de distintas áreas colaboren entre ellos para la realización de proyectos multidisciplinares. Sin embargo esta relación no suele tener un reflejo directo en la formación ofrecida en los estudios universitarios, que carecen de dicho carácter multidisciplinar. Este artículo es una continuación de un trabajo previo donde se propuso una metodología para el diseño de planes de estudios comunes para los grados de Ingeniería Multimedia y Magisterio, donde los estudiantes de ambas titulaciones pudieran relacionarse en un entorno de trabajo realista para la realización de prácticas de laboratorio comunes. En particular, la práctica interdisciplinar se centró en la realización por parte de los estudiantes de multimedia y magisterio de herramientas web que pudieran ser utilizadas en el futuro por los docentes en aulas escolares. En este artículo se recoge la experiencia llevada a cabo en el curso 2012/2013 en la Universidad de Alicante así como el análisis de los resultados obtenidos tras la realización de las prácticas. Las prácticas se realizaron siguiendo la metodología propuesta y teniendo en cuenta los aspectos de coordinación, supervisión, seguimiento y evaluación establecidos en dicha metodología.
Resumo:
Urban researchers and planners are often interested in understanding how economic activities are distributed in urban regions, what forces influence their special pattern and how urban structure and functions are mutually dependent. In this paper, we want to show how an algorithm for ranking the nodes in a network can be used to understand and visualize certain commercial activities of a city. The first part of the method consists of collecting real information about different types of commercial activities at each location in the urban network of the city of Murcia, Spain. Four clearly differentiated commercial activities are studied, such as restaurants and bars, shops, banks and supermarkets or department stores, but obviously we can study other. The information collected is then quantified by means of a data matrix, which is used as the basis for the implementation of a PageRank algorithm which produces a ranking of all the nodes in the network, according to their significance within it. Finally, we visualize the resulting classification using a colour scale that helps us to represent the business network.
Resumo:
There are a large number of image processing applications that work with different performance requirements and available resources. Recent advances in image compression focus on reducing image size and processing time, but offer no real-time solutions for providing time/quality flexibility of the resulting image, such as using them to transmit the image contents of web pages. In this paper we propose a method for encoding still images based on the JPEG standard that allows the compression/decompression time cost and image quality to be adjusted to the needs of each application and to the bandwidth conditions of the network. The real-time control is based on a collection of adjustable parameters relating both to aspects of implementation and to the hardware with which the algorithm is processed. The proposed encoding system is evaluated in terms of compression ratio, processing delay and quality of the compressed image when compared with the standard method.
Resumo:
Modern compilers present a great and ever increasing number of options which can modify the features and behavior of a compiled program. Many of these options are often wasted due to the required comprehensive knowledge about both the underlying architecture and the internal processes of the compiler. In this context, it is usual, not having a single design goal but a more complex set of objectives. In addition, the dependencies between different goals are difficult to be a priori inferred. This paper proposes a strategy for tuning the compilation of any given application. This is accomplished by using an automatic variation of the compilation options by means of multi-objective optimization and evolutionary computation commanded by the NSGA-II algorithm. This allows finding compilation options that simultaneously optimize different objectives. The advantages of our proposal are illustrated by means of a case study based on the well-known Apache web server. Our strategy has demonstrated an ability to find improvements up to 7.5% and up to 27% in context switches and L2 cache misses, respectively, and also discovers the most important bottlenecks involved in the application performance.
Resumo:
La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.
Resumo:
Paper submitted to the XVIII Conference on Design of Circuits and Integrated Systems (DCIS), Ciudad Real, España, 2003.