937 resultados para parallel computer systems


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Training-needs analysis is critical for defining and procuring effective training systems. However, traditional approaches to training-needs analysis are not suitable for capturing the demands of highly automated and computerized work domains. In this article, we propose that work domain analysis can identify the functional structure of a work domain that must be captured in a training system, so that workers can be trained to deal with unpredictable contingencies that cannot be handled by computer systems. To illustrate this argument, we outline a work domain analysis of a fighter aircraft that defines its functional structure in terms of its training objectives, measures of performance, basic training functions, physical functionality, and physical context. The functional structure or training needs identified by work domain analysis can then be used as a basis for developing functional specifications for training systems, specifically its design objectives, data collection capabilities, scenario generation capabilities, physical functionality, and physical attributes. Finally, work domain analysis also provides a useful framework for evaluating whether a tendered solution fulfills the training needs of a work domain.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho consiste no desenvolvimento de um Sistema de Apoio à Criminologia – SAC, onde se pretende ajudar os detectives/analistas na prevenção proactiva da criminalidade e na gestão dos seus recursos materiais e humanos, bem como impulsionar estudos sobre a alta incidência de determinados tipos de crime numa dada região. Historicamente, a resolução de crimes tem sido uma prerrogativa da justiça penal e dos seus especialistas e, com o aumento da utilização de sistemas computacionais no sistema judicial para registar todos os dados que dizem respeito a ocorrências de crimes, dados de suspeitos e vítimas, registo criminal de indivíduos e outros dados que fluem dentro da organização, cresce a necessidade de transformar estes dados em informação proveitosa no combate à criminalidade. O SAC tira partido de técnicas de extracção de conhecimento de informação e aplica-as a um conjunto de dados de ocorrências de crimes numa dada região e espaço temporal, bem como a um conjunto de variáveis que influenciam a criminalidade, as quais foram estudadas e identificadas neste trabalho. Este trabalho é constituído por um modelo de extracção de conhecimento de informação e por uma aplicação que permite ao utilizador fornecer um conjunto de dados adequado, garantindo a máxima eficácia do modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The emergence of new business models, namely, the establishment of partnerships between organizations, the chance that companies have of adding existing data on the web, especially in the semantic web, to their information, led to the emphasis on some problems existing in databases, particularly related to data quality. Poor data can result in loss of competitiveness of the organizations holding these data, and may even lead to their disappearance, since many of their decision-making processes are based on these data. For this reason, data cleaning is essential. Current approaches to solve these problems are closely linked to database schemas and specific domains. In order that data cleaning can be used in different repositories, it is necessary for computer systems to understand these data, i.e., an associated semantic is needed. The solution presented in this paper includes the use of ontologies: (i) for the specification of data cleaning operations and, (ii) as a way of solving the semantic heterogeneity problems of data stored in different sources. With data cleaning operations defined at a conceptual level and existing mappings between domain ontologies and an ontology that results from a database, they may be instantiated and proposed to the expert/specialist to be executed over that database, thus enabling their interoperability.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Gestão das Instituições Financeiras

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um dos temas mais debatidos na sociedade actual é a segurança. Os níveis de segurança e as ferramentas para os alcançar entram em contraponto com os métodos usados para os quebrar. Como no passado, a razão qualidade/serviço mantém-se hoje, e manter-se-á no futuro, assegurando maior segurança àqueles que melhor se protejam. Problemas simples da vida real como furtos ou uso de falsa identidade assumem no meio informático uma forma rápida e por vezes indetectável de crime organizado. Neste estudo são investigados métodos sociais e aplicações informáticas comuns para quebrar a segurança de um sistema informático genérico. Desta forma, e havendo um entendimento sobre o Modus Operandi das entidades mal-intencionadas, poderá comprovar-se a instabilidade e insegurança de um sistema informático, e, posteriormente, actuar sobre o mesmo de tal forma que fique colocado numa posição da segurança que, podendo não ser infalível, poderá estar muito melhorada. Um dos objectivos fulcrais deste trabalho é conseguir implementar e configurar um sistema completo através de um estudo de soluções de mercado, gratuitas ou comerciais, a nível da implementação de um sistema em rede com todos os serviços comuns instalados, i.e., um pacote “chave na mão” com serviços de máquinas, sistema operativo, aplicações, funcionamento em rede com serviços de correio electrónico, gestão empresarial, anti-vírus, firewall, entre outros. Será possível então evidenciar uma instância de um sistema funcional, seguro e com os serviços necessários a um sistema actual, sem recurso a terceiros, e sujeito a um conjunto de testes que contribuem para o reforço da segurança.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Learning and teaching processes, like all human activities, can be mediated through the use of tools. Information and communication technologies are now widespread within education. Their use in the daily life of teachers and learners affords engagement with educational activities at any place and time and not necessarily linked to an institution or a certificate. In the absence of formal certification, learning under these circumstances is known as informal learning. Despite the lack of certification, learning with technology in this way presents opportunities to gather information about and present new ways of exploiting an individual’s learning. Cloud technologies provide ways to achieve this through new architectures, methodologies, and workflows that facilitate semantic tagging, recognition, and acknowledgment of informal learning activities. The transparency and accessibility of cloud services mean that institutions and learners can exploit existing knowledge to their mutual benefit. The TRAILER project facilitates this aim by providing a technological framework using cloud services, a workflow, and a methodology. The services facilitate the exchange of information and knowledge associated with informal learning activities ranging from the use of social software through widgets, computer gaming, and remote laboratory experiments. Data from these activities are shared among institutions, learners, and workers. The project demonstrates the possibility of gathering information related to informal learning activities independently of the context or tools used to carry them out.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O panorama atual da emergência e socorro de primeira linha em Portugal, carateriza-se por uma grande aposta ao longo dos últimos anos num incremento contínuo da qualidade e da eficiência que estes serviços prestam às populações locais. Com vista à prossecução do objetivo de melhoria contínua dos serviços, foram realizados ao longo dos últimos anos investimentos avultados ao nível dos recursos técnicos e ao nível da contratação e formação de recursos humanos altamente qualificados. Atualmente as instituições que prestam socorro e emergência de primeira linha estão bem dotadas ao nível físico e ao nível humano dos recursos necessários para fazerem face aos mais diversos tipos de ocorrências. Contudo, ao nível dos sistemas de informação de apoio à emergência e socorro de primeira linha, verifica-se uma inadequação (e por vezes inexistência) de sistemas informáticos capazes de suportar convenientemente o atual contexto de exigência e complexidade da emergência e socorro. Foi feita ao longo dos últimos anos, uma forte aposta na melhoria dos recursos físicos e dos recursos humanos encarregues da resposta àsemergência de primeira linha, mas descurou-se a área da gestão e análise da informação sobre as ocorrências, assim como, o delinear de possíveis estratégias de prevenção que uma análise sistematizada da informação sobre as ocorrências possibilita. Nas instituições de emergência e socorro de primeira linha em Portugal (bombeiros, proteção civil municipal, PSP, GNR, polícia municipal), prevalecem ainda hoje os sistemas informáticos apenas para o registo das ocorrências à posteriori e a total inexistência de sistemas de registo de informação e de apoio à decisão na alocação de recursos que operem em tempo real. A generalidade dos sistemas informáticos atualmente existentes nas instituições são unicamente de sistemas de backoffice, que não aproveitam a todas as potencialidades da informação operacional neles armazenada. Verificou-se também, que a geo-localização por via informática dos recursos físicos e de pontos de interesse relevantes em situações críticas é inexistente a este nível. Neste contexto, consideramos ser possível e importante alinhar o nível dos sistemas informáticos das instituições encarregues da emergência e socorro de primeira linha, com o nível dos recursos físicos e humanos que já dispõem atualmente. Dado que a emergência e socorro de primeira linha é um domínio claramente elegível para a aplicação de tecnologias provenientes dos domínios da inteligência artificial (nomeadamente sistemas periciais para apoio à decisão) e da geo-localização, decidimos no âmbito desta tese desenvolver um sistema informático capaz de colmatar muitas das lacunas por nós identificadas ao nível dos sistemas informáticos destas instituições. Pretendemos colocar as suas plataformas informáticas num nível similar ao dos seus recursos físicos e humanos. Assim, foram por nós identificadas duas áreas chave onde a implementação de sistemas informáticos adequados às reais necessidades das instituições podem ter um impacto muito proporcionar uma melhor gestão e otimização dos recursos físicos e humanos. As duas áreas chave por nós identificadas são o suporte à decisão na alocação dos recursos físicos e a geolocalização dos recursos físicos, das ocorrências e dos pontos de interesse. Procurando fornecer uma resposta válida e adequada a estas duas necessidades prementes, foi desenvolvido no âmbito desta tese o sistema CRITICAL DECISIONS. O sistema CRITICAL DECISIONS incorpora um conjunto de funcionalidades típicas de um sistema pericial, para o apoio na decisão de alocação de recursos físicos às ocorrências. A inferência automática dos recursos físicos, assenta num conjunto de regra de inferência armazenadas numa base de conhecimento, em constante crescimento e atualização, com base nas respostas bem sucedidas a ocorrências passadas. Para suprimir as carências aos nível da geo-localização dos recursos físicos, das ocorrências e dos pontos de interesse, o sistema CRITICAL DECISIONS incorpora também um conjunto de funcionalidades de geo-localização. Estas permitem a geo-localização de todos os recursos físicos da instituição, a geo-localização dos locais e as áreas das várias ocorrências, assim como, dos vários tipos de pontos de interesse. O sistema CRITICAL DECISIONS visa ainda suprimir um conjunto de outras carências por nós identificadas, ao nível da gestão documental (planos de emergência, plantas dos edifícios) , da comunicação, da partilha de informação entre as instituições de socorro e emergência locais, da contabilização dos tempos de serviço, entre outros. O sistema CRITICAL DECISIONS é o culminar de um esforço colaborativo e contínuo com várias instituições, responsáveis pela emergência e socorro de primeira linha a nível local. Esperamos com o sistema CRITICAL DECISIONS, dotar estas instituições de uma plataforma informática atual, inovadora, evolutiva, com baixos custos de implementação e de operação, capaz de proporcionar melhorias contínuas e significativas ao nível da qualidade da resposta às ocorrências, das capacidades de prevenção e de uma melhor otimização de todos os tipos de recursos que têm ao dispor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Advances in networking and information technologies are transforming factory-floor communication systems into a mainstream activity within industrial automation. It is now recognized that future industrial computer systems will be intimately tied to real-time computing and to communication technologies. For this vision to succeed, complex heterogeneous factory-floor communication networks (including mobile/wireless components) need to function in a predictable, flawless, efficient and interoperable way. In this paper we re-visit the issue of supporting real-time communications in hybrid wired/wireless fieldbus-based networks, bringing into it some experimental results obtained in the framework of the RFieldbus ISEP pilot.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cooperating objects (COs) is a recently coined term used to signify the convergence of classical embedded computer systems, wireless sensor networks and robotics and control. We present essential elements of a reference architecture for scalable data processing for the CO paradigm.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

MSCC Dissertation in Computer Engineering

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho foi realizado sob orientação do Prof. António Brandão Moniz para a disciplina “Factores Sociais da Inovação” do Mestrado Engenharia Informática realizado na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa (Portugal)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dependability is a critical factor in computer systems, requiring high quality validation & verification procedures in the development stage. At the same time, digital devices are getting smaller and access to their internal signals and registers is increasingly complex, requiring innovative debugging methodologies. To address this issue, most recent microprocessors include an on-chip debug (OCD) infrastructure to facilitate common debugging operations. This paper proposes an enhanced OCD infrastructure with the objective of supporting the verification of fault-tolerant mechanisms through fault injection campaigns. This upgraded on-chip debug and fault injection (OCD-FI) infrastructure provides an efficient fault injection mechanism with improved capabilities and dynamic behavior. Preliminary results show that this solution provides flexibility in terms of fault triggering and allows high speed real-time fault injection in memory elements

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Empowered by virtualisation technology, cloud infrastructures enable the construction of flexi- ble and elastic computing environments, providing an opportunity for energy and resource cost optimisation while enhancing system availability and achieving high performance. A crucial re- quirement for effective consolidation is the ability to efficiently utilise system resources for high- availability computing and energy-efficiency optimisation to reduce operational costs and carbon footprints in the environment. Additionally, failures in highly networked computing systems can negatively impact system performance substantially, prohibiting the system from achieving its initial objectives. In this paper, we propose algorithms to dynamically construct and readjust vir- tual clusters to enable the execution of users’ jobs. Allied with an energy optimising mechanism to detect and mitigate energy inefficiencies, our decision-making algorithms leverage virtuali- sation tools to provide proactive fault-tolerance and energy-efficiency to virtual clusters. We conducted simulations by injecting random synthetic jobs and jobs using the latest version of the Google cloud tracelogs. The results indicate that our strategy improves the work per Joule ratio by approximately 12.9% and the working efficiency by almost 15.9% compared with other state-of-the-art algorithms.