933 resultados para abordagem neo-kohlberguiana baseada no DIT


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ubiquitous computing systems operate in environments where the available resources significantly change during the system operation, thus requiring adaptive and context aware mechanisms to sense changes in the environment and adapt to new execution contexts. Motivated by this requirement, a framework for developing and executing adaptive context aware applications is proposed. The PACCA framework employs aspect-oriented techniques to modularize the adaptive behavior and to keep apart the application logic from this behavior. PACCA uses abstract aspect concept to provide flexibility by addition of new adaptive concerns that extend the abstract aspect. Furthermore, PACCA has a default aspect model that considers habitual adaptive concerns in ubiquitous applications. It exploits the synergy between aspect-orientation and dynamic composition to achieve context-aware adaptation, guided by predefined policies and aim to allow software modules on demand load making possible better use of mobile devices and yours limited resources. A Development Process for the ubiquitous applications conception is also proposed and presents a set of activities that guide adaptive context-aware developer. Finally, a quantitative study evaluates the approach based on aspects and dynamic composition for the construction of ubiquitous applications based in metrics

Relevância:

40.00% 40.00%

Publicador:

Resumo:

There is a need for multi-agent system designers in determining the quality of systems in the earliest phases of the development process. The architectures of the agents are also part of the design of these systems, and therefore also need to have their quality evaluated. Motivated by the important role that emotions play in our daily lives, embodied agents researchers have aimed to create agents capable of producing affective and natural interaction with users that produces a beneficial or desirable result. For this, several studies proposing architectures of agents with emotions arose without the accompaniment of appropriate methods for the assessment of these architectures. The objective of this study is to propose a methodology for evaluating architectures emotional agents, which evaluates the quality attributes of the design of architectures, in addition to evaluation of human-computer interaction, the effects on the subjective experience of users of applications that implement it. The methodology is based on a model of well-defined metrics. In assessing the quality of architectural design, the attributes assessed are: extensibility, modularity and complexity. In assessing the effects on users' subjective experience, which involves the implementation of the architecture in an application and we suggest to be the domain of computer games, the metrics are: enjoyment, felt support, warm, caring, trust, cooperation, intelligence, interestingness, naturalness of emotional reactions, believabiliy, reducing of frustration and likeability, and the average time and average attempts. We experimented with this approach and evaluate five architectures emotional agents: BDIE, DETT, Camurra-Coglio, EBDI, Emotional-BDI. Two of the architectures, BDIE and EBDI, were implemented in a version of the game Minesweeper and evaluated for human-computer interaction. In the results, DETT stood out with the best architectural design. Users who have played the version of the game with emotional agents performed better than those who played without agents. In assessing the subjective experience of users, the differences between the architectures were insignificant

Relevância:

40.00% 40.00%

Publicador:

Resumo:

When crosscutting concerns identification is performed from the beginning of development, on the activities involved in requirements engineering, there are many gains in terms of quality, cost and efficiency throughout the lifecycle of software development. This early identification supports the evolution of requirements, detects possible flaws in the requirements specification, improves traceability among requirements, provides better software modularity and prevents possible rework. However, despite these several advantages, the crosscutting concerns identification over requirements engineering faces several difficulties such as the lack of systematization and tools that support it. Furthermore, it is difficult to justify why some concerns are identified as crosscutting or not, since this identification is, most often, made without any methodology that systematizes and bases it. In this context, this paper proposes an approach based on Grounded Theory, called GT4CCI, for systematizing and basing the process of identifying crosscutting concerns in the initial stages of the software development process in the requirements document. Grounded Theory is a renowned methodology for qualitative analysis of data. Through the use of GT4CCI it is possible to better understand, track and document concerns, adding gains in terms of quality, reliability and modularity of the entire lifecycle of software

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Filosofia - FFC

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A tecnologia DSL- Digital Subscriber Line permitem um acesso universal de banda larga, com redução de custo e tempo de implantação necessários, quando comparadas a outras redes de acesso. DSL pode ser considerada uma rede de banda larga de grande capilaridade, uma vez que utiliza uma combinação de infra-estrutura de telefonia existente e a tecnologia de transmissão. Não obstante, a rede DSL precisa ser amplamente compreendida, de maneira que suas principais vantagens não sejam suplantadas pela ineficiência geral do sistema. Esta tese apresenta uma abordagem baseada em estratégias que possibilitem o planejamento de redes de comunicação que a priori não foram implementadas para suportar fluxos Triple Play (pré-requisito obrigatório diante do perfil atual de usuários da Internet). Será mostrado que, a partir do uso de medidas reais e análises probabilísticas, é possível elaborar o planejamento de redes de comunicação, considerando os parâmetros físicos e lógicos, tais como: o caminho de transmissão, a influência do ruído na comunicação, os protocolos utilizados e tráfego de Triple Play (voz, vídeo e dados).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Uma das principais aplicações de ondas eletromagnéticas, na atualidade, na área de telecomunicações trata dos enlaces em sistemas móveis sem fio. Sejam estes terrestres (indoor/outdoor) ou via satélites, o projetista do sistema de telecomunicações tem que ser capaz de determinar os sistemas irradiantes, as potências envolvidas, a frequência de operação do sistema, a área de cobertura e os parâmetros de qualidade do serviço. O planejamento das novas redes de comunicações sem fio representa um grande desafio ao incluir serviços cada vez mais avançados com diferentes requisitos de qualidade, suporte a mobilidade, altas taxas de transmissão e capacidades elevadas de tráfego. Os diversos ambientes nos quais essas redes operam, os fenômenos associados produzem diversos efeitos no comportamento do sinal recebido e, consequentemente, uma variação no desempenho do enlace de comunicação entre os pontos de acesso, a rede e os usuários. Por conseguinte, esses efeitos devem ser avaliados corretamente, de tal forma que o dimensionamento da rede atenda aos requisitos de qualidade regulamentados. O presente trabalho objetiva estabelecer uma metodologia para o planejamento de redes de comunicação sem fio para ambientes indoor, considerando os parâmetros de qualidade de serviços e os efeitos da polarização das antenas. Foi proposto um modelo empírico para determinar a área de cobertura desse ambiente a partir de uma abordagem baseada em medições. Como resultado de campanhas de medições, foram identificados os principais parâmetros que interferem nas perdas no enlace de propagação, destacando-se os materiais envolvidos no ambiente bem como os efeitos da polarização das antenas transmissora, entre outros. Tais efeitos, avaliados corretamente, permitirão ao projetista da rede, de uma forma crítica e com base em dados obtidos em campo, definir a melhor configuração de parâmetros e critérios de projeto para a implantação de uma rede móvel de acesso sem fio. As medições para determinação dos parâmetros de cobertura e de qualidade de serviços foram realizadas no prédio do Laboratório de Engenharia Elétrica e de Computação e no prédio de aulas do Instituto de Tecnologia da Universidade Federal do Pará. Nas campanhas de medição foram utilizadas algumas frequências, escolhidas devido à importância dos serviços disponibilizados: 2,4 GHz - redes locais sem fio (WLAN’s); 3,5 GHz - Wimax licenciado; 5,85 GHz - Wimax livre e 10 GHz (a faixa de 9,8 a 10 GHz não está ainda regulamentada, de 10 - 10,15 GHz-radioamador (Resolução Anatel, Nº 452/2006 - D.O.U. de 20.12.2006) ou serviços de comunicações multimídias (SCM) para sistemas em banda larga). Os principais resultados obtidos com o modelo proposto foram avaliados e comparados com os principais modelos da literatura e mostraram que a metodologia adotada para o planejamento de redes de comunicação sem fio em ambientes indoor teve um bom desempenho.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho propõe a utilização de técnicas de inteligência computacional objetivando identificar e estimar a potencia de ruídos em redes Digital Subscriber Line ou Linhas do Assinante Digital (DSL) em tempo real. Uma metodologia baseada no Knowledge Discovery in Databases ou Descobrimento de Conhecimento em Bases de Dados (KDD) para detecção e estimação de ruídos em tempo real, foi utilizada. KDD é aplicado para selecionar, pré-processar e transformar os dados antes da etapa de aplicação dos algoritmos na etapa de mineração de dados. Para identificação dos ruídos o algoritmo tradicional backpropagation baseado em Redes Neurais Artificiais (RNA) é aplicado objetivando identificar o tipo de ruído em predominância durante a coleta das informações do modem do usuário e da central. Enquanto, para estimação o algoritmo de regressão linear e o algoritmo híbrido composto por Fuzzy e regressão linear foram aplicados para estimar a potência em Watts de ruído crosstalk ou diafonia na rede. Os resultados alcançados demonstram que a utilização de algoritmos de inteligência computacional como a RNA são promissores para identificação de ruídos em redes DSL, e que algoritmos como de regressão linear e Fuzzy com regressão linear (FRL) são promissores para a estimação de ruídos em redes DSL.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Um corpo de conhecimento em Engenharia de Software requer a replicação de experimentos controlados. O conhecimento gerado por um experimento é registrado no chamado pacote de laboratório, o qual deve ser revisado por um eventual grupo de pesquisa com a intenção de replicá-lo. Entretanto, pesquisadores enfrentam dificuldades ao revisar pacotes de laboratório, o que leva a problemas de compartilhamento de conhecimento entre grupos de pesquisa. Além disso, a falta de padronização é um obstáculo à integração de um estudo isolado em um corpo de conhecimento comum. Nesse contexto, é proposto um workflow para gerar pacotes de laboratório baseados na ExperOntology, uma ontologia do domínio de experimentos controlados, visando a contribuir na revisão e no entendimento de pacotes de laboratório.