952 resultados para Reconfigurable digital systems


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fieldwork in a major construction programme is used to examine what is meant by professionalism where large integrated digital systems are used to design, deliver, and maintain buildings and infrastructure. The increasing ‘professionalization’ of the client is found to change other professional roles and interactions in project delivery. New technologies for approvals and workflow monitoring are associated with new occupational groups; new kinds of professional accountability; and a greater integration across professional roles. Further conflicts also arise, where occupational groups have different understandings of project deliverables and how they are competently achieved. The preliminary findings are important for an increasing policy focus on shareable data, in order for building owners and operators to improve the cost, value, handover and operation of complex buildings. However, it will also have an impact on wider public decision-making processes, professional autonomy, expertise and interdependence. These findings are considered in relation to extant literatures, which problematize the idea of professionalism; and the shift from drawings to shareable data as deliverables. The implications for ethics in established professions and other occupational groups are discussed; directions are suggested for further scholarship on professionalism in digitally mediated project work to improve practices which will better serve society.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As we enter an era of ‘big data’, asset information is becoming a deliverable of complex projects. Prior research suggests digital technologies enable rapid, flexible forms of project organizing. This research analyses practices of managing change in Airbus, CERN and Crossrail, through desk-based review, interviews, visits and a cross-case workshop. These organizations deliver complex projects, rely on digital technologies to manage large data-sets; and use configuration management, a systems engineering approach with mid-20th century origins, to establish and maintain integrity. In them, configuration management has become more, rather than less, important. Asset information is structured, with change managed through digital systems, using relatively hierarchical, asynchronous and sequential processes. The paper contributes by uncovering limits to flexibility in complex projects where integrity is important. Challenges of managing change are discussed, considering the evolving nature of configuration management; potential use of analytics on complex projects; and implications for research and practice.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

o surgimento dos telefones celulares foi uma grande revolução nas telecomunicações, pois as pessoas poderiam se comunicar de qualquer lugar, mesmo em movimento. No entanto, a grande demanda obrigou a criação de novos sistemas digitais de telefonia, com mais qualidade nas ligações, capacidade de transmissão de voz, dentre outros. Posteriormente, surgiu uma demanda que não queria apenas mais qualidade, mas também a disponibilização de serviços disponíveis a partir do celular. Isto originou o uso da tecnologia WAP. Focalizando o estudo no mercado brasileiro, a tecnologia WAP foi anunciada como a responsável por trazer a Internet utilizada nos computadores convencionais diretamente para o celular. Entretanto, diversos problemas relativos ao uso e custo desta tecnologia indicaram claras desvantagens da Internet no celular em comparação com a Internet convencional. Isto tomou a tecnologia W AP um fracasso de crítica no Brasil. Esta dissertação busca comprovar o fracasso da la versão da tecnologia W AP - W AP 1.0 - e a participação dos modelos de negócios utilizados na derrocada desta tecnologia no mercado brasileiro de telefonia celular.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As digital systems move away from traditional desktop setups, new interaction paradigms are emerging that better integrate with users’ realworld surroundings, and better support users’ individual needs. While promising, these modern interaction paradigms also present new challenges, such as a lack of paradigm-specific tools to systematically evaluate and fully understand their use. This dissertation tackles this issue by framing empirical studies of three novel digital systems in embodied cognition – an exciting new perspective in cognitive science where the body and its interactions with the physical world take a central role in human cognition. This is achieved by first, focusing the design of all these systems on a contemporary interaction paradigm that emphasizes physical interaction on tangible interaction, a contemporary interaction paradigm; and second, by comprehensively studying user performance in these systems through a set of novel performance metrics grounded on epistemic actions, a relatively well established and studied construct in the literature on embodied cognition. The first system presented in this dissertation is an augmented Four-in-a-row board game. Three different versions of the game were developed, based on three different interaction paradigms (tangible, touch and mouse), and a repeated measures study involving 36 participants measured the occurrence of three simple epistemic actions across these three interfaces. The results highlight the relevance of epistemic actions in such a task and suggest that the different interaction paradigms afford instantiation of these actions in different ways. Additionally, the tangible version of the system supports the most rapid execution of these actions, providing novel quantitative insights into the real benefits of tangible systems. The second system presented in this dissertation is a tangible tabletop scheduling application. Two studies with single and paired users provide several insights into the impact of epistemic actions on the user experience when these are performed outside of a system’s sensing boundaries. These insights are clustered by the form, size and location of ideal interface areas for such offline epistemic actions to occur, as well as how can physical tokens be designed to better support them. Finally, and based on the results obtained to this point, the last study presented in this dissertation directly addresses the lack of empirical tools to formally evaluate tangible interaction. It presents a video-coding framework grounded on a systematic literature review of 78 papers, and evaluates its value as metric through a 60 participant study performed across three different research laboratories. The results highlight the usefulness and power of epistemic actions as a performance metric for tangible systems. In sum, through the use of such novel metrics in each of the three studies presented, this dissertation provides a better understanding of the real impact and benefits of designing and developing systems that feature tangible interaction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Includes bibliography

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper describes a program for the automatic generation of code for Intel's 8051 microcontroller. The code is generated from a place-transition Petri net specification. Our goal is to minimize programming time. The code generated by our program has been observed to exactly match the net model. It has also been observed that no change is needed to be made to the generated code for its compilation to the target architecture. © 2011 IFAC.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A adoção de sistemas digitais de radiodifusão sonora, que estão em fase de testes no país, permite realizar novos estudos visando um melhor planejamento para a implementação dessas novas emissoras. O que significa reavaliar os principais modelos de radiopropagação existentes ou propor novas alternativas para atender as demandas inerentes dos sistemas digitais. Os modelos atuais, conforme Recomendações ITU-R P. 1546 e ITU-R P. 1812, não condizem fielmente com a realidade de algumas regiões do Brasil, principalmente com as regiões de clima tropical, como a Região Amazônica, seja pelo elevado índice pluviométrico seja pela vasta flora existente. A partir dos modelos adequados ao canal de propagação, torna-se viável desenvolver ferramentas de planejamento de cobertura mais precisas e eficientes. A utilização destas ferramentas é cabível tanto para a ANATEL, para a elaboração dos planos básicos de distribuição de canais quanto para os radiodifusores. No presente trabalho é apresentada uma metodologia utilizando a inteligência computacional, baseada em Inferênciass Baysianas, para predição da intensidade de campo elétrico, a qual pode ser aplicada ao planejamento ou expansão de áreas de cobertura em sistemas de radiodifusão para frequências na faixa de ondas médias (de 300 kHz a 3MHz). Esta metodologia gera valores de campo elétrico estimados a partir dos valores de altitude do terreno (através de análises de tabelas de probabilidade condicional) e estabelece a comparação destes com valores de campo elétrico medidos. Os dados utilizados neste trabalho foram coletados na região central do Brasil, próximo à cidade de Brasília. O sinal transmitido era um sinal de rádio AM transmitido na frequência de 980 kHz. De posse dos dados coletados durante as campanhas de medição, foram realizadas simulações utilizando tabelas de probabilidade condicional geradas por Inferências Bayesianas. Assim, é proposto um método para predizer valores de campo elétrico com base na correlação entre o campo elétrico medido e altitude, através da utilização de inteligência computacional. Se comparados a inúmeros trabalhos existentes na literatura que têm o mesmo objetivo, os resultados encontrados neste trabalho validam o uso da metodologia para determinar o campo elétrico de radiodifusão sonora em ondas médias utilizando Inferências Bayesianas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho é proposta uma nova metodologia de projeto de estabilizadores de sistemas de potência baseada em teoria de sistemas de ordem fracionária (ESP-OF). A estratégia é baseada em uma generalização do projeto de compensadores do tipo rede avançoatraso (lead-lag) para o domínio de funções de transferência de ordem fracionária. Uma nova variável de projeto, a qual define a ordem da dinâmica fracionária do controlador, é sintonizada para se obter um compromisso entre um bom desempenho no amortecimento do modo eletromecânico dominante e uma robustez ampliada do ESP-OF. O desempenho do ESP-OF foi avaliado experimentalmente, em um sistema de potência em escala reduzida, localizado no Laboratório de Sistemas de Potência da Universidade Federal do Pará. A referida planta de teste apresenta uma estrutura típica do tipo gerador síncrono conectado a um barramento infinito e exibe um modo dominante de oscilação eletromecânica, de amortecimento extremamente reduzido, cujo valor da frequência natural é em torno de 1,2 Hz. O ESP-OF foi então projetado para ampliar o amortecimento relativo desse modo alvo, para toda a faixa de operação admissível. Para fins de implementação prática, primeiramente foram realizados testes experimentais para a identificação de um modelo nominal da planta, sob a forma de uma função de transferência pulsada, para uso na fase de projeto. O modelo obtido experimentalmente foi então validado e posteriormente utilizado tanto para o projeto do ESP-OF quanto para o projeto de um ESP convencional (utilizado para fins de comparação de desempenho). As leis de controle amortecedor do ESP-OF foram calculadas, convertidas para a forma de equações a diferenças e, subsequentemente, embarcadas em sistema digital baseado em microcontrolador DSPIC. Diversos testes de resposta ao impulso foram realizadas sob diferentes condições operacionais. As respectivas respostas dinâmicas dos sinais de saída da planta (desvio de potencia ativa) e do esforço de controle foram registradas para fins de análise. Os resultados experimentais mostraram que o ESP fracionário apresentou um desemprenho dinâmico e robustez similar em comparação com o desempenho obtido por um ESP convencional, para toda a faixa de operação investigada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The TV news, like other productions for television, are in the process of adaptation of its discursive structures and its production as a consequence of the structures of the digital systems. Focusing not only the formatting, but mainly on the routines, its possible to notice the emergence of a new dynamic of production and consumption of information. Interactivity is the resource that has mobilized the most effort in the adaptation of television companies, anticipating the trend towards a more strengthening receiver role in communication relationship, which should be intensified by the convergence of medias with the deployment of Brazilian digital TV. While this is not realized, producers encourage a forged approach of receivers, since the proposal is not fully enforceable, either because of limitations in the routine production or in the technological devices. Then, the enunciative strategy of interactivity seeks to renew the social bond between the TV news and its audience.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Functional validation of complex digital systems is a hard and critical task in the design flow. In particular, when dealing with communication systems, like Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), the design decisions taken during the process have to be validated at different levels in an easy way. In this work, a unified algorithm-architecture-circuit co-design environment for this type of systems, to be implemented in FPGA, is presented. The main objective is to find an efficient methodology for designing a configurable optimized MB-OFDM UWB system by using as few efforts as possible in verification stage, so as to speed up the development period. Although this efficient design methodology is tested and considered to be suitable for almost all types of complex FPGA designs, we propose a solution where both the circuit and the communication channel are tested at different levels (algorithmic, RTL, hardware device) using a common testbench.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este Proyecto de fin de carrera titulado: LA VÍDEOVIGILANCIA: TECNOLOGÍAS ACTUALES Y ASPECTOS SOCIOPOLÍTICOS, tiene como objetivo hacer un estudio en los sistemas de Vídeovigilancia basado en cámaras-IP, con fines de seguridad, control o supervisión. Nos basaremos en exponer los sistemas Vídeovigilancia basados en cámara-IP actuales de ultima generación, cuya principal virtud de estos sistemas, es la comunicación con otros lugares, o espacios públicos como privados y poder visualizar tanto en vivo como en diferido lo que este pasando en ese lugar y en ese momento o haya pasado a través del protocolo de comunicación-IP. Se explicara desde el más básico al más complejo sistema de videovigilancia-IP, también explicaremos su puesta en practica mediante los múltiples interconexiones que estos conlleven. Llegando a este punto, se nos plantea las siguientes cuestiones que da origen a este PFC. Estos sistemas de Vídeovigilancia-IP, captan las imágenes por medio de las cámaras-IP, proporcionando su facilidad tanto de visionado/grabacion, como de control, ya que no es necesario estar presente e interactuando con otros sistemas digitales de diverso índole actuales, gracias al protocolo-IP. Estos sistemas-IP, tienen su puesta en práctica mediante las instalaciones requeridas ,estas podrán ser sencillas o muy complejas de todos los sistemas-IP. Debido al gran aumento masivo, las tecnologías actuales de diverso índole de cámaras-IP en materia de la vídeovigilancia en lugares públicos, y privados en nuestra sociedad actual, lo hace un medio particularmente invasivo y por ello resulta necesario tanto la concurrencia de condiciones que legitimen los tratamientos de datos de personas identificables, como la definición de los principios y garantías que deban aplicarse ya que estas, repercutirán sobre los derechos de las personas, lo que obligara a fijar ciertas garantías. Se nos plantea los casos en los que la captación y/o tratamiento de imágenes con fines de Vídeovigilancia que pertenezcan a personas identificadas o identificables, ha obligado a España, y según dispuesto por la Directiva 95/46/CE del Parlamento Europeo, a regularizar esta situación mediante la Ley Orgánica de Protección de Datos (LOPD) 15/1999 de 13 de diciembre, bajo los procedimientos del Estado español en materia sociopolítica, y dando vigor a esta ley, mediante la aprobación de la Instrucción 1/2006 de 8 de noviembre de 2006, cuyo máximo organismo es la Agencia española de Protección de Datos (AGPD). Una vez planteada la motivación y justificación del proyecto, se derivan unos objetivos a cumplir con la realización del mismo. Los objetivos del proyecto se pueden diferenciar en dos clases principalmente. Los objetivos principales y objetivos secundarios. Los objetivos principales de este PFC, nacen directamente de las necesidades planteadas originalmente en materia de Vídeovigilancia, tanto tecnológicamente basado en las cámaras-IP en la captación y/o tratamiento de imágenes, así como sociopolíticamente donde trataremos de describirlo mediante las indicaciones y criterios con casos prácticos y de cómo deben de aplicarse según la instrucción 1/2006 mediante la LOPD en materia de Vídeovigilancia, en cuanto a la protección de datos que puedan repercutir sobre el derecho de las personas. Por otra parte los objetivos secundarios, son la extensión del objetivo primario y son de orden cuantificador en este PFC, dando una explicación más exhaustiva del objetivo principal. ABSTRACT In this final year project, entitled: THE VIDEOSURVEILLANCE: CURRENT TECHNOLOGIES AND POLITICALSOCIALS ASPECTS, aims to make a study of video surveillance systems based on IP cameras, for security, control or supervision. We will rely on to expose the camera based video surveillance systems IP-current last generation, whose main virtue of these systems, is communication with other places, or public and private spaces and to view both live and time so this happening in that place and at that time or passed through-IP communication protocol. He explained from the most basic to the most complex-IP video surveillance system, also explain its implementation into practice through multiple interconnections that these entail. Arriving at this point, we face the following issues which gave rise to this PFC. These IP-video surveillance systems, captured images through IP-cameras, providing both ease of viewing / recording, as a control, since it is not necessary to be present and interacting with other digital systems such diverse today, thanks IP-protocol. These systems-IP, have their implementation through the facilities required, these can be simple or very complex all-IP video surveillance systems. Due to the large increase in mass, current technologies of different kinds of IP cameras for video surveillance in public places, and private in our society, it makes a particularly invasive and therefore attendance is necessary both conditions that legitimize data processing of identifiable people, as the definition of the principles and safeguards to be applied as these will impact on the rights of the people, which forced to set certain guarantees. We face those cases in which the uptake and / or image processing video surveillance purposes belonging to identified or identifiable, has forced Spain, and as required by Directive 95/46/EC of the European Parliament, to regularize this situation by the Organic Law on Data Protection (LOPD) 15/1999 of December 13, under the procedures of the Spanish State in sociopolitical, and giving effect to this Act, with the approval of the Instruction 1/2006 of 8 November 2006, the governing body is the Spanish Agency for Data Protection (AGPD). Once raised the motivation and justification for the project, resulting in meeting targets to achieve the same. Project objectives can be differentiated into two main classes, the main objectives and secondary objectives: The main objectives of this PFC, born directly from requirements originally raised for capturing both technologically imaging me and try to describe where sociopolitically, the details and criteria as case studies and should be applied according to the instruction 1 / 2006 by the LOPD on video surveillance system in terms of data protection that could impact on the right people. Moreover the secondary objectives are the extension of the primary and are of a quantifier in this PFC, giving a fuller explanation of the main objective.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente proyecto final de carrera titulado “Modelado de alto nivel con SystemC” tiene como objetivo principal el modelado de algunos módulos de un codificador de vídeo MPEG-2 utilizando el lenguaje de descripción de sistemas igitales SystemC con un nivel de abstracción TLM o Transaction Level Modeling. SystemC es un lenguaje de descripción de sistemas digitales basado en C++. En él hay un conjunto de rutinas y librerías que implementan tipos de datos, estructuras y procesos especiales para el modelado de sistemas digitales. Su descripción se puede consultar en [GLMS02] El nivel de abstracción TLM se caracteriza por separar la comunicación entre los módulos de su funcionalidad. Este nivel de abstracción hace un mayor énfasis en la funcionalidad de la comunicación entre los módulos (de donde a donde van datos) que la implementación exacta de la misma. En los documentos [RSPF] y [HG] se describen el TLM y un ejemplo de implementación. La arquitectura del modelo se basa en el codificador MVIP-2 descrito en [Gar04], de dicho modelo, los módulos implementados son: · IVIDEOH: módulo que realiza un filtrado del vídeo de entrada en la dimensión horizontal y guarda en memoria el video filtrado. · IVIDEOV: módulo que lee de la memoria el vídeo filtrado por IVIDEOH, realiza el filtrado en la dimensión horizontal y escribe el video filtrado en memoria. · DCT: módulo que lee el video filtrado por IVIDEOV, hace la transformada discreta del coseno y guarda el vídeo transformado en la memoria. · QUANT: módulo que lee el video transformado por DCT, lo cuantifica y guarda el resultado en la memoria. · IQUANT: módulo que lee el video cuantificado por QUANT, realiza la cuantificación inversa y guarda el resultado en memoria. · IDCT: módulo que lee el video procesado por IQUANT, realiza la transformada inversa del coseno y guarda el resultado en memoria. · IMEM: módulo que hace de interfaz entre los módulos anteriores y la memoria. Gestiona las peticiones simultáneas de acceso a la memoria y asegura el acceso exclusivo a la memoria en cada instante de tiempo. Todos estos módulos aparecen en gris en la siguiente figura en la que se muestra la arquitectura del modelo: Figura 1. Arquitectura del modelo (VER PDF DEL PFC) En figura también aparecen unos módulos en blanco, dichos módulos son de pruebas y se han añadido para realizar simulaciones y probar los módulos del modelo: · CAMARA: módulo que simula una cámara en blanco y negro, lee la luminancia de un fichero de vídeo y lo envía al modelo a través de una FIFO. · FIFO: hace de interfaz entre la cámara y el modelo, guarda los datos que envía la cámara hasta que IVIDEOH los lee. · CONTROL: módulo que se encarga de controlar los módulos que procesan el vídeo, estos le indican cuando terminan de procesar un frame de vídeo y este módulo se encarga de iniciar los módulos que sean necesarios para seguir con la codificación. Este módulo se encarga del correcto secuenciamiento de los módulos procesadores de vídeo. · RAM: módulo que simula una memoria RAM, incluye un retardo programable en el acceso. Para las pruebas también se han generado ficheros de vídeo con el resultado de cada módulo procesador de vídeo, ficheros con mensajes y un fichero de trazas en el que se muestra el secuenciamiento de los procesadores. Como resultado del trabajo en el presente PFC se puede concluir que SystemC permite el modelado de sistemas digitales con bastante sencillez (hace falta conocimientos previos de C++ y programación orientada objetos) y permite la realización de modelos con un nivel de abstracción mayor a RTL, el habitual en Verilog y VHDL, en el caso del presente PFC, el TLM. ABSTRACT This final career project titled “High level modeling with SystemC” have as main objective the modeling of some of the modules of an MPEG-2 video coder using the SystemC digital systems description language at the TLM or Transaction Level Modeling abstraction level. SystemC is a digital systems description language based in C++. It contains routines and libraries that define special data types, structures and process to model digital systems. There is a complete description of the SystemC language in the document [GLMS02]. The main characteristic of TLM abstraction level is that it separates the communication among modules of their functionality. This abstraction level puts a higher emphasis in the functionality of the communication (from where to where the data go) than the exact implementation of it. The TLM and an example are described in the documents [RSPF] and [HG]. The architecture of the model is based in the MVIP-2 video coder (described in the document [Gar04]) The modeled modules are: · IVIDEOH: module that filter the video input in the horizontal dimension. It saves the filtered video in the memory. · IVIDEOV: module that read the IVIDEOH filtered video, filter it in the vertical dimension and save the filtered video in the memory. · DCT: module that read the IVIDEOV filtered video, do the discrete cosine transform and save the transformed video in the memory. · QUANT: module that read the DCT transformed video, quantify it and save the quantified video in the memory. · IQUANT: module that read the QUANT processed video, do the inverse quantification and save the result in the memory. · IDCT: module that read the IQUANT processed video, do the inverse cosine transform and save the result in the memory. · IMEM: this module is the interface between the modules described previously and the memory. It manage the simultaneous accesses to the memory and ensure an unique access at each instant of time All this modules are included in grey in the following figure (SEE PDF OF PFC). This figure shows the architecture of the model: Figure 1. Architecture of the model This figure also includes other modules in white, these modules have been added to the model in order to simulate and prove the modules of the model: · CAMARA: simulates a black and white video camera, it reads the luminance of a video file and sends it to the model through a FIFO. · FIFO: is the interface between the camera and the model, it saves the video data sent by the camera until the IVIDEOH module reads it. · CONTROL: controls the modules that process the video. These modules indicate the CONTROL module when they have finished the processing of a video frame. The CONTROL module, then, init the necessary modules to continue with the video coding. This module is responsible of the right sequence of the video processing modules. · RAM: it simulates a RAM memory; it also simulates a programmable delay in the access to the memory. It has been generated video files, text files and a trace file to check the correct function of the model. The trace file shows the sequence of the video processing modules. As a result of the present final career project, it can be deduced that it is quite easy to model digital systems with SystemC (it is only needed previous knowledge of C++ and object oriented programming) and it also allow the modeling with a level of abstraction higher than the RTL used in Verilog and VHDL, in the case of the present final career project, the TLM.