1000 resultados para SISTEMAS VIRTUALES DE COMPUTADORES


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A responsabilização do gestor municipal de saúde pelo planejamento e avaliação do Sistema de Saúde tem aumentado com o processo de municipalização, tornando crescente a necessidade de obtenção de informações adequadas e rapidamente acessíveis ao processo de tomada de decisões gerenciais. Os Sistemas de Informação em Saúde (SIS) são potenciais apoiadores deste processo, mas poucos trabalhos têm verificado sua adequação às necessidades dos gestores municipais, e municípios pequenos podem ter dificuldades adicionais para disponibilizar recursos materiais e humanos necessários a seu aproveitamento adequado. Procurou-se conhecer as necessidades dos 337 municípios gaúchos com menos de 10 mil habitantes em termos de estrutura, utilização dos SIS e necessidades de informações, através de questionário auto-aplicado. Houve um retorno de 127 questionários (37%). A falta de estrutura para a utilização dos SIS não apareceu como problema crítico, sendo que todos os municípios possuíam computador para uso dos SIS (média de três) e 6% não tinham internet. Em 59,1% há análise de dados com geração de indicadores utilizados no planejamento e gerenciamento local, mas 36,2% têm dificuldades na utilização das informações que retornam do nível central por não terem acesso ou por não conseguirem compreendê-las. 4,7% acham que os SIS permitem gerar os indicadores necessários, satisfazendo plenamente suas expectativas, e dos que não utilizam ou utilizam muito pouco os dados dos SIS, 10% referem como causa a falta de computadores, 27,5% o treinamento insuficiente dos profissionais, 27,5% que não há necessidade de criar indicadores, que vêm prontos do nível central, e 25% que os SIS não permitem trabalhar o banco de dados, apenas sua alimentação. Identificou-se dificuldade na compreensão do termo indicadora, e foram citados freqüentemente como importantes para o planejamento local os mesmos utilizados nas pactuações com o Estado. O Estado precisa fornecer às coordenadorias regionais condições para que possam assumir seu papel de apoiadoras técnicas, auxiliando a organização administrativa dos municípios e o processo de planejamento e tomada de decisões, permitindo que eles identifiquem suas demandas e decidam localmente quais as informações relevantes para apoiar suas decisões.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização de computadores na sociedade atual é uma realidade. As aplicações com base em computadores tem se multiplicado num ritmo crescente, conquistando cada vez mais novas áreas de atividades técnico-econômica. Está abordagem enfatiza a administração de informações em substituição á enfase colocada nos programas, procedimentos, equipamentos periféricos, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas tempo-real embarcados demanda novas metodologias e ferramentas para gerenciar os problemas de projeto, análise, integração e validação de sistemas complexos. Este trabalho aborda o tema co-projeto de sistemas tempo-real embarcados, propondo estratégias para a integração das fases iniciais de modelagem de um sistema tempo-real embarcado com as fases subseqüentes do projeto, como a implementação do software e do hardware. É proposto um framework orientado a objetos que permite a criação de modelos orientados a objetos de sistemas tempo-real embarcados, utilizando conceitos temporais similares aos propostos em UML-RT (ou mais especificamente no UML Profile for Schedulability, Performance and Time). É proposta uma estratégia de mapeamento dos requisitos temporais dos diagramas UMLRT para uma interface de programação (API) baseada na “Especificação Tempo-Real para Java” (Real-Time Specification for Java ou RTSJ), a qual pode ser executada tanto em software – em programas RTSJ executando em máquinas virtuais Java (JVM) tempo-real – ou em hardware – em processadores Java Tempo-Real. Para permitir o mapeamento para hardware são propostas extensões tempo-real ao processador Java FemtoJava, desenvolvido no âmbito de dissertações de mestrado e projetos de pesquisa no PPGC, criando-se um novo processador tempo-real denominado de RT-FemtoJava. Dentre as extensões propostas ao processador FemtoJava destaca-se a inclusão de um relógio de tempo-real e o suporte a instruções para alocação e manipulação de objetos. Os conceitos propostos foram validados no âmbito de estudos de caso, sendo os resultados obtidos descritos na presente dissertação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta animação descreve as representações de números binários sem sinal, representação de sinal e magnitude, complemento de 1, complemento de 2. Também são apresentadas a adição de números sem sinal, a subtração em complemento de 2, o conceito de overflow e exceção. O projeto de uma unidade lógica e aritmética (ULA) é descrito, assim como alguns exemplos das operações: slt e beq. Três versões da operação de multiplicação, que é mais complicada que a de soma, são apresentadas por meio de figuras e algoritmos. A representação de ponto flutuante e o padrão IEEE 754 também são descritos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este relatório pretende ilustrar a experiência profissional obtida, principalmente após a conclusão, em 1998, da Licenciatura em Engenharia de Sistemas e Computadores na Universidade da Madeira. Esta experiência circunscreve-se à proficiência nas áreas de redes de comunicação de dados, automação e robótica e desenvolvimento de média interativos (tanto na vertente de CD-ROMs como orientado à Internet). Embora também disponha de experiência no ensino destas áreas citadas, foram privilegiados os projetos com uma relevância mais técnica atendendo à natureza deste mestrado. Sendo assim, são apresentadas nestas quatro áreas primeiro uma descrição dos projetos realizados no âmbito do percurso profissional, para depois descrever uma implementação (relativa a cada área) utilizando uma metodologia científica que fora alvo de estudo na componente letiva deste mestrado, salientando as virtudes e defeitos de ambas as abordagens e comparando os resultados obtidos. Em síntese, é analisado o projeto de gestão de sistemas de redes das Escolas Secundárias Francisco Franco e Jaime Moniz (no âmbito do desempenho das funções de Diretor das Instalações Informáticas em ambas as instituições) culminando numa proposta de implementação utilizando equipamentos da Cisco; é analisado o projeto de CD-ROM sobre a Reserva Natural das Ilhas Desertas para depois completar um jogo educativo utilizando uma metodologia científica de Game Design; são descritos os websites desenvolvidos (com especial ênfase nos realizados enquanto técnico superior de informática na Secretaria Regional do Ambiente e dos Recursos Naturais) para concluir com uma proposta de implementação de um sistema de marcação de reuniões orientado para a Cloud; finalmente, é descrito a utilização dos kits Lego Mindstorms para o ensino da programação, propondo uma implementação de baixo custo (alternativa) baseada num Raspberry Pi e componentes acessórios (tanto estandardizados como construídos com uma RepRap). Em suma, é contraposto o rigor e método do ensino académico com o pragmatismo e metas de produtividade exigidas no mercado de trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A new method to perform TCP/IP fingerprinting is proposed. TCP/IP fingerprinting is the process of identify a remote machine through a TCP/IP based computer network. This method has many applications related to network security. Both intrusion and defence procedures may use this process to achieve their objectives. There are many known methods that perform this process in favorable conditions. However, nowadays there are many adversities that reduce the identification performance. This work aims the creation of a new OS fingerprinting tool that bypass these actual problems. The proposed method is based on the use of attractors reconstruction and neural networks to characterize and classify pseudo-random numbers generators

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of non-linear controllers gained space in the theoretical ambit and of practical applications on the moment that the arising of digital computers enabled the implementation of these methodologies. In comparison with the linear controllers more utilized, the non -linear controllers present the advantage of not requiring the linearity of the system to determine the parameters of control, which permits a more efficient control especially when the system presents a high level of non-linearity. Another additional advantage is the reduction of costs, since to obtain the efficient control through linear controllers it is necessary the utilization of sensors and more refined actuators than when it is utilized a non-linear controller. Among the non-linear theories of control, the method of control by gliding ways is detached for being a method that presents more robustness, before uncertainties. It is already confirmed that the adoption of compensation on the region of residual error permits to improve better the performance of these controllers. So, in this work it is described the development of a non-linear controller that looks for an association of strategy of control by gliding ways, with the fuzzy compensation technique. Through the implementation of some strategies of fuzzy compensation, it was searched the one which provided the biggest efficiency before a system with high level of nonlinearities and uncertainties. The electrohydraulic actuator was utilized as an example of research, and the results appoint to two configurations of compensation that permit a bigger reduction of the residual error

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It bet on the next generation of computers as architecture with multiple processors and/or multicore processors. In this sense there are challenges related to features interconnection, operating frequency, the area on chip, power dissipation, performance and programmability. The mechanism of interconnection and communication it was considered ideal for this type of architecture are the networks-on-chip, due its scalability, reusability and intrinsic parallelism. The networks-on-chip communication is accomplished by transmitting packets that carry data and instructions that represent requests and responses between the processing elements interconnected by the network. The transmission of packets is accomplished as in a pipeline between the routers in the network, from source to destination of the communication, even allowing simultaneous communications between pairs of different sources and destinations. From this fact, it is proposed to transform the entire infrastructure communication of network-on-chip, using the routing mechanisms, arbitration and storage, in a parallel processing system for high performance. In this proposal, the packages are formed by instructions and data that represent the applications, which are executed on routers as well as they are transmitted, using the pipeline and parallel communication transmissions. In contrast, traditional processors are not used, but only single cores that control the access to memory. An implementation of this idea is called IPNoSys (Integrated Processing NoC System), which has an own programming model and a routing algorithm that guarantees the execution of all instructions in the packets, preventing situations of deadlock, livelock and starvation. This architecture provides mechanisms for input and output, interruption and operating system support. As proof of concept was developed a programming environment and a simulator for this architecture in SystemC, which allows configuration of various parameters and to obtain several results to evaluate it