19 resultados para Servidores Penitenciários
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
Resumo:
Esse estudo enfatiza as implicações do método de gestão da Qualidade Total em sua implantação em órgãos públicos. O principal enfoque é a investigação dos modos de subjetivação dos servidores públicos de uma instância federal do Poder Judiciário que implantou o programa da Qualidade Total. A pesquisa tem natureza qualitativa e os dados foram coletados através de entrevistas semi-estruturadas, observação do local de trabalho e análise de documentos e materiais informativos. Participaram da pesquisa servidores da instituição, bem como magistrados e pessoas externas à instituição, mas que apresentavam vínculo com a temática da Qualidade Total em órgãos públicos. Os resultados da pesquisa enfatizam a inadequação desse modelo de gestão na forma como está implantada na instituição pesquisada, bem como salienta o processo de precarização do trabalho no setor público, especialmente no judiciário. Conclui-se, dessa forma, que a gestão da Qualidade Total fortalece o modo-indivíduo em prejuízo das estratégias coletivas de organização do trabalho, visto que salientam características já constatadas em empresas privadas. Essas características passam a se verificar presentes também em órgãos públicos, tais como: a busca incessante pela satisfação do ‘cliente’, a necessidade do ‘lucro’, a importância da competitividade, sempre visando ao aumento da produtividade.
Resumo:
Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
Resumo:
A modernidade exige a evolução das Polícias Estaduais, principalmente em relação a aspectos que melhor beneficiem a sociedade, considerando-se os vetores da economia, da execução completa de atividades e de um sistema de administração mais qualificado. As Polícias Militares e as Civis requerem formas de gestão que melhor qualifiquem as relações internas e externas, em busca da racionalização e da eficiência. A par disso, é fundamental que as ações policiais se desenvolvam com estrito respeito à Constituição e às leis. Para o desenvolvimento desse tema, o autor examinou a legislação nacional e estadual referente à Segurança Pública, bem como teorias de administração e, em especial, os sistemas de administração definidos por LIKERT. A pesquisa utilizou metodologia qualificativa e quantitativa. A primeira foi usada para o tratamento dos dados coletados nas questões fechadas e, a Segunda, para a análise das palavras citadas. O instrumento utilizado para a coleta de dados foi um questionário contendo 51 (cinqüenta e uma) questões objetivas e 3 (três) questões abertas, tendo sido aplicado a 201 (duzentos e um) servidores, dos quais 74 (setenta e quatro) policiais civis e 124 (cento e vinte e quatro) policiais militares. A pesquisa quantitativa concluiu que os oficiais da Brigada Militar e os delegados da Polícia Civil exercem uma chefia identificada pelo sistema de Likert como sendo autoritária-benévola. Não houve diferença significativa entre as médias de percepção dos servidores da PC e da BM sobre os sistemas de chefia existentes ou idealizados. Ficou identificado que o sistema praticado (real) pela chefia é significativamente diferente do idealizado (ideal) pelos servidores da PC ou da BM. A análise qualitativa confirmou os resultados, permitindo identificar que, nas citações de palavras qualificadoras sobre o chefe, o enfoque com o maior percentual de freqüência foi autoritária, com 78% (setenta e oito por cento) das palavras citadas por PMs ou PCs, contra 22% (vinte e dois por cento) do sistema dito participativo.
Resumo:
Este trabalho trata da utilização de protocolos de comunicação de grupo para a disseminação de escritas em arquivos replicados. A replicação de arquivos tem como objetivo aumentar a disponibilidade dos dados mesmo mediante a ocorrência de alguma falha. Existem duas abordagens principais para a replicação de arquivos: a da cópia primária e das cópias ativas. Em ambas as abordagens é necessário que seja mantida a integridade dos dados replicados, de forma que todos cópias dos arquivos replicados estejam no mesmo estado. Essa integridade pode ser mantida pela escolha correta de uma estratégia de disseminação de escritas. Como os servidores que mantém cópias do mesmo arquivo formam um grupo de replicação, a disseminação de escritas pode ser feita através de comunicação de grupos. Neste trabalho são apresentados os sistemas de comunicação de grupo xAMp, da Universidade de Lisboa; Totem, Universidade da Califórnia; Transis da Universidade de Hebréia de Jerusalém; Horus, da Universidade de Cornell e Newtop da Universidade de Newcastle. Todos os sistemas descritos possuem características de comunicação de grupo e membership que permitem a sua utilização na disseminação de escritas para arquivos replicados. Este trabalho descreve, também, o protótipo PDERM (Protótipo para a Disseminação de Escritas em arquivos Replicados, através de Multicast), implementado para analisar o comportamento de um sistema de comunicação de grupo, o xAMp, na disseminação de escritas em arquivos replicados pela estratégia da cópia primária. Foi analisado o aspecto da manutenção da integridade das réplicas mesmo na ocorrência de falha do servidor primário.
Resumo:
As transformações sociais, políticas e econômicas verificadas em escala global têm influenciado sensivelmente na definição de um novo papel e nova conformação do município enquanto ente integrante da federação. Neste contexto, busca-se investigar, em particular, a efetiva adequação das estruturas de cargos de provimento efetivo vigentes numa amostra de três pequenos municípios situados na região da Grande Porto Alegre - RS. A verificação desta adequação toma por orientação as necessidades efetivas da administração pública, bem como as realidades observadas no ambiente local. Buscando captar a percepção de pessoas envolvidas diretamente com a formulação, gerenciamento e controle das estruturas de cargos vigentes nos municípios pesquisados, realiza-se um estudo que parte de uma coleta de dados baseada em fontes secundárias e avança para uma pesquisa in loco, que tem o propósito de levantar as necessidades e a natureza das atividades efetivamente desenvolvidas pelos servidores públicos nas prefeituras. O estudo evidencia contradições entre proposições legais e orientações teóricas, acerca da definição das estruturas de cargos, e necessidades reais das administrações municipais quanto a pessoas e postos de trabalho. Verifica-se, assim, um confronto entre as estruturas formais e as estruturas reais em vigor. Os resultados alcançados na pesquisa apontam para a existência de desconformidades entre as estruturas de cargos administrativos e operacionais definidas em lei e as reais necessidades dos municípios. Pôde-se perceber, nos três casos estudados, que a prática administrativa atual reflete um paradoxo. De um lado, existem sólidas orientações e pressupostos burocráticos e legalistas (princípio da legalidade administrativa) e, de outro, realidades permeadas de ilegalidades e desvios de função, que se justificam pela efetiva realidade dos governos municipais, que são pressionados por novas, muitas e diferentes demandas sociais. A partir da análise das realidades encontradas nos três casos estudados, sugeremse estruturas mais flexíveis e adequadas às necessidades dos respectivos municípios, evidenciando, assim, que os seus quadros de pessoal podem ser conformados a um novo e mais moderno papel.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
O Contrato de Gestão é um instrumento que visa rever e corrigir relações de controles ineficazes, bem como obter maior responsibilização por parte da área pública em relação ao atingimento de objetivos predefinidos. Este estudo possui características de uma pesquisa do tipo exploratório-descritiva, tendo como objetivo geral analisar as relações contratuais entre o Governo do Estado do Rio Grande do Sul e três empresas estatais gaúchas no processo de implementação do Contrato de Gestão. Os dados foram coletados por meio de entrevistas semi-estruturadas com servidores das empresas e da Secretaria de Coordenação e Planejamento, que participaram dos estudos e das negociações da implementação dos Contratos de Gestão. Para decomposição dos dados, foi utilizada a metodologia da análise de conteúdo na modalidade de análise temática. Os resultados são apresentados em oito categorias iniciais, três intermediárias e duas finais: Na Implementação dos Contratos e a Manutenção dos Contratos, os resultados colocam em evidência que esses se, originaram de uma decisão política, através de um pacto com o Governo Central, para uma mudança estrutural e filosófica da administração Estadual. A manutenção desses está condicionada ao envolvimento dos mais altos dirigentes políticos, pela não-ingerência administrativa na gestão das empresas, e ao esforço de formação e integração dos funcionários.
Resumo:
Trata-se de uma pesquisa exploratório-descritiva, que busca analisar, a partir da abordagem dejouriana - que considera a dimensão organizacional e as suas repercussões sobre o equilíbrio psíquico e saúde mental do trabalhador -os reflexos da implantação do Programa de Demissão Voluntária - PDV, sobre os servidores que optaram pela não-adesão a este programa e permaneceram nas organizações públicas. Os dados foram coletados junto a servidores lotados na Fundação Gaúcha do Trabalho e Ação Social, através de entrevistas semiestruturadas. Para a análise de dados, foi utilizada a metodologia da análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em dezesseis categorias iniciais, seis categorias intermediárias e três categorias finais: os entraves burocráticos, a perda da inteligência do estado, e o PDV e o medo. A problemática parte do pressuposto de que, com o PDV, a possibilidade da perda do emprego torne-se uma realidade para o funcionário público, trazendo, para o seu cotidiano do trabalho, o sentimento de medo - medo da perda do emprego, acompanhado da dicotomia sofrimento/prazer. Os resultados obtidos mostram que o PDV é um fator desencadeante do sofrimento no trabalho, considerando que, após a implementação do Programa, permanece para os servidores uma condição de frustração e de conflitos pessoais e institucionais.
Resumo:
A dissertação analisa quais fatores influenciam a satisfação e motivação no trabalho dos servidores públicos municipais da Secretaria de Administração da Prefeitura Municipal de Santa Cruz do Sul. A metodologia da pesquisa, que tem características de um estudo de caso, tem caráter qualitativo e é exploratóriodescritiva, tendo sido escolhida a análise de conteúdo como método de análise dos dados. Foram aplicadas entrevistas semi-estruturadas a nove servidores públicos da Secretaria objeto do estudo. Para a interpretação dos dados, adotouse basicamente o modelo dos “Dois Fatores de Herzberg”. Os resultados são apresentados em treze Categorias Iniciais, quatro Categorias Intermediárias e duas Categorias Finais, que são: “Fatores Motivadores e Fatores Higiênicos”. Os resultados obtidos apontam que os fatores motivadores “Realização profissional, Reconhecimento profissional e O gosto pelo trabalho” e os Fatores Higiênicos “Estabilidade, Coleguismo e Relacionamento com superiores” são os que mais influenciam positivamente na satisfação e motivação dos servidores. Em contrapartida, os Fatores Higiênicos “Condições de trabalho, Processo de comunicação, Política salarial, Descontinuidade administrativa e Burocracia” e os Fatores Motivadores “Resultados e Falta de reconhecimento profissional” são os que mais geram insatisfação no trabalho. Os resultados também indicam inexistir uma política definida de recursos humanos por parte da organização, visando propiciar condições para o aumento da satisfação e motivação dos servidores. O estudo sugere que seja procedida uma posterior ampliação de enfoque, para contemplar outras categorias de servidores (estatutários, estáveis, contratados e comissionados).
Resumo:
Trata o presente objeto de pesquisa da proposta de desenvolvimento de um modelo de ambiente de avaliação remota para Ensino à Distância, baseado no paradigma de Orientação a Objetos e elaborado com base na tecnologia de sistemas multiagentes. Para a validação do modelo, foi desenvolvido um protótipo denominado Javal, capaz de permitir a aplicação e monitoração da realização de avaliações e testes à distância. As soluções comerciais disponíveis no mercado, como Question Mark Perception, Aula Net e WebCT possuem código fechado e custo elevado, além de serem baseadas em soluções proprietárias (QML - Question Mark, ASP - Microsoft, etc.), necessitando de plataforma específica para instalação de servidores e clientes. Quanto ao aspecto funcional, estas ferramentas possuem a base de sua lógica de funcionamento em execução de scripts no servidor. Para cada item de uma avaliação a ser respondido, torna-se necessária a efetivação de uma nova conexão. O modelo proposto traz toda a funcionalidade do sistema para o ambiente do aluno, tornando necessária apenas uma conexão para a busca da avaliação e outra para o envio dos resultados, reduzindo o tráfego na rede. Quanto ao aspecto pedagógico, estas ferramentas limitam-se apenas a apresentar uma avaliação somativa do aluno, geração de graus e estatísticas, não se preocupando em monitorar seus aspectos comportamentais, capazes de apontar indícios de possíveis falhas no aprendizado ou na elaboração da avaliação. A proposta do modelo é da apresentação de um ambiente orientado a objetos, capaz de distribuir elementos representativos das avaliações existentes no modelo tradicional de ensino, incorporando recursos capazes de possibilitar a monitoração de aspectos comportamentais do aluno, pelo emprego de agentes monitores ou tutores, que podem acompanhar o aluno e auxiliá-lo em situações de dificuldade. O modelo proposto por este trabalho envolve as avaliações formativas e somativas, aplicadas de forma assíncrona e individual. Como sugestão para trabalhos futuros, o modelo propõe o desenvolvimento de classes capazes de implementar a aplicação de avaliações síncronas e em grupo. A validação do modelo proposto foi realizado através do desenvolvimento de um protótipo que, com base no desenvolvimento de uma API Javal específica, implementa os principais tipos de questões disponíveis no sistema de ensino tradicional, além de agentes tutores de avaliação.
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.