55 resultados para Aspect-oriented middleware reference architecture
Resumo:
The study was performed in the installations of OCAS, a Steel Research Centre of ArcelorMittal. Taking M32 steel (3.25%Si+0.9%Al) as the basis chemical composition and three different thicknesses (0.35, 0.5 and 0.65mm), different annealing conditions (temperature and time) have been applied in the laboratory simulator at St. Chély, France. The aim was to link annealing parameters, grain size and energy loss. It was determined the optimum annealing parameters to reach the lowest power losses for three different grades of non-oriented fully processed electrical steel. In addition, M250-50 samples having different magnetic behaviour (high and low losses) but the same grain size and texture, have been analyzed in terms of TEM observations of their precipitates, in the University of Marseille. The results reveal that a high amount of medium and big precipitates (&10 nm) worsen the magnetic properties of the material. The small precipitates (&10nm) do not have a strong influence on the magnetic properties. The presence of precipitates can have a great influence on the power losses and further work is clearly necessary.
Resumo:
The influence of chemistry and soaking temperature (maximal temperature of the continuous annealing) on the final properties of non-oriented electrical steels has been studied. With this objective two different studies have been performed. First the Mn, Ni and Cr content of a low loss electrical steel composition has been modified. An intermediate content and a high content of each element has been added in order to study the influence of this components on the magnetic looses, grain size and texture. Secondly the influence of the soaking temperature on magnetic properties, grain size and oxidation in four grades of non-oriented electrical steels (Steel A, B, C and D) was studied.
Resumo:
El projecte que es presenta a continuació, té com a objectiu implementar un sistema HW/SW encastat en una FPGA, capaç d’executar funcions de control remot per infraroig en plataformes de televisió flexibles de Sony Corp. El disseny obtingut, s’incorporarà a un sistema més ampli de verificació i test de circuits impresos, dins del marc de producció SMD. La finalitat d’aquest projecte, és la realització d’un sistema flexible per a la implementació de comandaments de comunicació per infraroig amb circuits impresos. Prèviament, s’ha estudiat els conceptes bàsics referents a la implementació de sistemes amb FPGAs, la seva metodologia de desenvolupament i les principals característiques de la seva arquitectura. Com a especificacions, s’ha utilitzat l’estàndard de control remot per infraroig de Sony Corp SIRCS (Sony Infrared remote control system).
Resumo:
L'objectiu del projecte ha estat la millora de la qualitat docent de l'assignatura Estructura de Computadors I, impartida a la Facultat d'Informàtica de Barcelona (UPC) dins els estudis d'Enginyeria Informàtica, Enginyeria Tècnica en Informàtica de Sistemes i Enginyeria Tècnica en Informàtica de Gestió. S'ha treballat en quatre línies d'actuació: (i) aplicació de tècniques d'aprenentatge actiu a les classes; (ii) aplicació de tècniques d'aprenentage cooperatiu no presencials; (iii) implantació de noves TIC i adaptació de les ja emprades per tal d'habilitar mecanismes d'autoavaluació i de realimentació de la informació referent a l'avaluació; i (iv) difusió de les experiències derivades de les diferents actuacions. Referent a les dues primeres mesures s'avalua l'impacte de metodologies docents que afavoreixen l'aprenentatge actiu tant de forma presencial com no presencial, obtenint-se clares millores en el rendiment respecte a altres metodologies utilitzades anteriorment enfocades a la realització de classes del tipus magistral, en què únicament es posa a l'abast dels alumnes la documentació de l'assignatura per a què puguin treballar de forma responsable. Les noves metodologies fan especial èmfasi en el treball en grup a classe i la compartició de les experiències fora de classe a través de fòrums de participació. La mesura que ha requerit més esforç en aquest projecte és la tercera, amb el desenvolupament d'un entorn d'interfície web orientat a la correcció automàtica de programes escrits en llenguatge assemblador. Aquest entorn permet l'autoavaluació per part dels alumnes dels exercicis realitzats a l'assignatura, amb obtenció d'informació detallada sobre les errades comeses. El treball realitzat dins d'aquest projecte s'ha publicat en congressos rellevants en l'àrea docent tant a nivell estatal com internacional. El codi font de l'entorn esmentat anteriorment es posa a disposició pública a través d'un enllaç a la web.
Resumo:
El Port d'Informació Científica és un centre de Computació Grid de referència que dona suport a comunitats científiques, com el LHC (CERN). Al PIC, trobem una gran varietat de tecnologies que proporcionen serveis al centre. Des de l'arquitectura i elements de la xarxa, fins a recursos informàtics de computació, sistemes d'emmagatzematge a disc i cinta magnètica, bases de dades (ORACLE/PostgreSQL). El projecte consisteix en el disseny i implementació d'una base de dades col·lectora de tota la informació rellevant dels diferents sistemes del centre, i un portal web on mostrar tots els valors i gràfiques, tot basat en programari lliure.
Resumo:
Customer Experience Management (CEM) se ha convertido en un factor clave para el éxito de las empresas. CEM gestiona todas las experiencias que un cliente tiene con un proveedor de servicios o productos. Es muy importante saber como se siente un cliente en cada contacto y entonces poder sugerir automáticamente la próxima tarea a realizar, simplificando tareas realizadas por personas. En este proyecto se desarrolla una solución para evaluar experiencias. Primero se crean servicios web que clasifican experiencias en estados emocionales dependiendo del nivel de satisfacción, interés, … Esto es realizado a través de minería de textos. Se procesa y clasifica información no estructurada (documentos de texto) que representan o describen las experiencias. Se utilizan métodos de aprendizaje supervisado. Esta parte es desarrollada con una arquitectura orientada a servicios (SOA) para asegurar el uso de estándares y que los servicios sean accesibles por cualquier aplicación. Estos servicios son desplegados en un servidor de aplicaciones. En la segunda parte se desarrolla dos aplicaciones basadas en casos reales. En esta fase Cloud computing es clave. Se utiliza una plataforma de desarrollo en línea para crear toda la aplicación incluyendo tablas, objetos, lógica de negocio e interfaces de usuario. Finalmente los servicios de clasificación son integrados a la plataforma asegurando que las experiencias son evaluadas y que las tareas de seguimiento son automáticamente creadas.
Resumo:
Es pretén realitzar un estudi exhaustiu de l'arquitectura i funcionalitats principals que ofereix Moodle com a entorn d'aprenentatge orientat al treball en grup i desenvolupament d'aplicacions web a mida, donant a conèixer els principis pedagògics constructivistes que promou en un entorn de treball col·laboratiu
Resumo:
El paradigma SOA conceptualitza el programari establint una separació entre les aplicacions i els components de lògica empresarial. El present Treball de Fi de Carrera uneix ambdós conceptes mitjançant l'anàlisi, disseny i desenvolupament d'un Catàleg de Productes amb Arquitectura Orientada a Serveis i tecnologia .NET com marc de treball. Així mateix, s'han introduït com valor afegit una sèrie de tecnologies noves que contribuïxen, sens dubte, a la millora del resultat final.
Resumo:
El projecte recull un treball d'assessorament en centres de primària pel que fa a l'elaboració del pla d'acollida. L'assessorament tenia una doble finalitat: dotar el centre d'una eina que el permetés sistematitzar-la i dotar de coherència i continuïtat els dubtes o angoixes que aquesta situació provocava. La base teòrica és doble: l'enfocament constructivista de l'assessorament psicopedagògic i la perspectiva de l'interculturalisme, atès el vessant socialitzador, interactiu i harmonitzador del PdA i la consideració social i sistèmica dels dos referents. La metodologia utilitzada ha estat qualitativa: la investigació-acció, ja que és un assessorament orientat cap a l'acció i basat en la pràctica, amb la finalitat de capacitar els docents en la millora d'aquesta pràctica. Recull aspectes organitzatius -matriculació, adscripció al curs, acollida i relació entre la família i el centre, llengua, recursos interns i suports externs- i coordinacions i estratègies d'aula -acollida, organització i funcionament de la classe, planificació de l'escolarització i activitats. Van quedar pendents de realitzar els aspectes referents al currículum i a la cooperació amb l'entorn.
Resumo:
La llegada de las tecnologías de la información, y su uso cada vez mayor y generalizado que se está haciendo de ellas, ha permitido para que una nueva situación aparezca que, a su vez, ha originado - de hecho, que ha precipitado - una serie de cambios de gran importancia en todos los niveles, pero especialmente en los niveles sociales, económicos y culturales. Este nueva escena ha tenido una gran influencia en el entorno pedagógico. De hecho, la aparición de nuevos modelos educativos como resultado de este cambio ha estado sucediendo de una manera continuada e ininterrumpida durante la década pasada. Estos cambios recientes en los sistemas actuales de enseñanza y de aprendizaje han significado un aumento y un cambio en el tipo de demandas hechas desde las bibliotecas y los centros de documentación.
Resumo:
In this paper, we consider the ATM networks in which the virtual path concept is implemented. The question of how to multiplex two or more diverse traffic classes while providing different quality of service requirements is a very complicated open problem. Two distinct options are available: integration and segregation. In an integration approach all the traffic from different connections are multiplexed onto one VP. This implies that the most restrictive QOS requirements must be applied to all services. Therefore, link utilization will be decreased because unnecessarily stringent QOS is provided to all connections. With the segregation approach the problem can be much simplified if different types of traffic are separated by assigning a VP with dedicated resources (buffers and links). Therefore, resources may not be efficiently utilized because no sharing of bandwidth can take place across the VP. The probability that the bandwidth required by the accepted connections exceeds the capacity of the link is evaluated with the probability of congestion (PC). Since the PC can be expressed as the CLP, we shall simply carry out bandwidth allocation using the PC. We first focus on the influence of some parameters (CLP, bit rate and burstiness) on the capacity required by a VP supporting a single traffic class using the new convolution approach. Numerical results are presented both to compare the required capacity and to observe which conditions under each approach are preferred
Resumo:
It is well known that image processing requires a huge amount of computation, mainly at low level processing where the algorithms are dealing with a great number of data-pixel. One of the solutions to estimate motions involves detection of the correspondences between two images. For normalised correlation criteria, previous experiments shown that the result is not altered in presence of nonuniform illumination. Usually, hardware for motion estimation has been limited to simple correlation criteria. The main goal of this paper is to propose a VLSI architecture for motion estimation using a matching criteria more complex than Sum of Absolute Differences (SAD) criteria. Today hardware devices provide many facilities for the integration of more and more complex designs as well as the possibility to easily communicate with general purpose processors
Resumo:
This paper proposes a parallel architecture for estimation of the motion of an underwater robot. It is well known that image processing requires a huge amount of computation, mainly at low-level processing where the algorithms are dealing with a great number of data. In a motion estimation algorithm, correspondences between two images have to be solved at the low level. In the underwater imaging, normalised correlation can be a solution in the presence of non-uniform illumination. Due to its regular processing scheme, parallel implementation of the correspondence problem can be an adequate approach to reduce the computation time. Taking into consideration the complexity of the normalised correlation criteria, a new approach using parallel organisation of every processor from the architecture is proposed
Resumo:
This work provides a general description of the multi sensor data fusion concept, along with a new classification of currently used sensor fusion techniques for unmanned underwater vehicles (UUV). Unlike previous proposals that focus the classification on the sensors involved in the fusion, we propose a synthetic approach that is focused on the techniques involved in the fusion and their applications in UUV navigation. We believe that our approach is better oriented towards the development of sensor fusion systems, since a sensor fusion architecture should be first of all focused on its goals and then on the fused sensors
Resumo:
This paper surveys control architectures proposed in the literature and describes a control architecture that is being developed for a semi-autonomous underwater vehicle for intervention missions (SAUVIM) at the University of Hawaii. Conceived as hybrid, this architecture has been organized in three layers: planning, control and execution. The mission is planned with a sequence of subgoals. Each subgoal has a related task supervisor responsible for arranging a set of pre-programmed task modules in order to achieve the subgoal. Task modules are the key concept of the architecture. They are the main building blocks and can be dynamically re-arranged by the task supervisor. In our architecture, deliberation takes place at the planning layer while reaction is dealt through the parallel execution of the task modules. Hence, the system presents both a hierarchical and an heterarchical decomposition, being able to show a predictable response while keeping rapid reactivity to the dynamic environment