114 resultados para Gerenciamento de redes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do desenvolvimento e aplicação de uma metodologia de gerenciamento da qualidade para o transporte coletivo de longa distância por ônibus. Essa metodologia é dividida em duas partes, uma parte relacionada à qualidade sistêmica ou tangível, e outra referente à qualidade percebida ou intangível. A qualidade tangível é desenvolvida a partir do gerenciamento de processos em uma empresa padrão do setor, e divide-se em 12 etapas. Esta parte tangível objetiva levantar os processos determinantes da qualidade de serviço e seus respectivos indicadores de monitoramento. A avaliação da qualidade intangível é realizada a partir da análise dos gaps ou lacunas da qualidade em uma linha de ônibus, objetivando selecionar os processos críticos a serem melhorados entre os processos definidos na parte tangível. Finalmente, são definidos os processos a serem monitorados na linha de ônibus analisada, e sugeridos alguns indicadores de desempenho para esses processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo geral verificar como uma empresa gerencia seus riscos trabalhistas com vistas a preveni-los. É um estudo de caso único, de natureza descritiva e qualitativa. Foi desenvolvido junto ao Grupo Eberle Mundial, através de entrevista do Gerente de Recursos Humanos, questionário auto-aplicado por sete membros do corpo executivo da organização, exame de documentos e análise de artigos de revistas e de jornais. Paralelamente, buscou experiências e opiniões de quatro especialistas da área trabalhista, também mediante questionário auto-aplicado. Em face dos resultados obtidos, o trabalho descreve a forma de gerenciamento de riscos trabalhistas adotada pelo Grupo Eberle Mundial e atende os objetivos específicos nos termos adiante sintetizados. Demonstra que o Grupo mantém rotinas para identificação de riscos trabalhistas, porém, não pratica a definição prévia do que sejam riscos relevantes e não relevantes. Identifica uma diversidade de riscos trabalhistas percebidos pelo Grupo e verifica que esses não abrangem riscos operacionais. Mostra que o Grupo criou métodos e instrumentos de trabalho próprios para o gerenciamento de seus riscos trabalhistas, atua de forma permanente na prevenção desses e faz a revisão anual de seus processos, buscando chegar à incorporação dessa filosofia à cultura da empresa, contudo, não mantém um sistema que integre seus procedimentos, na forma proposta pela literatura. Confirma que, através do projeto implantado pela nova administração, o Grupo que, em 1998, estava com sua sobrevivência comprometida, até 2003 já reduziu em mais de 50% as perdas financeiras que vinha sofrendo e restabeleceu sua credibilidade e imagem internas e externas. Constata que existe comprometimento da alta direção do Grupo com o gerenciamento de riscos trabalhistas, todavia, esse comprometimento não é do conhecimento de todos membros do corpo executivo da organização. Aponta que o Grupo não mantém área específica para gerenciamento de seus riscos trabalhistas, nem tem claro quem são os profissionais responsáveis por esses procedimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A colaboração visual, recurso que permite a troca de informações de forma remota, é construída em cima de uma combinação de diversas ferramentas, na qual estão incluídos: videoconferência, “streaming dedeo”, compartilhamento e transferência de informações e imagens (colaboração em cima de dados) entre outros. Estas soluções, vêm utilizando cada vez mais, o protocolo IP e a Internet para o transporte dos sinais. Com este objetivo, o ITU-T lançou a recomendação H.323, que definiu um padrão confiável, que permite a troca de sinais multimídia em redes de pacotes sem qualidade de serviço. Entretanto, com o passar dos anos percebeu-se que aplicações que manipulam voz e vídeo, precisam que as redes de pacotes tenham capacidade de prover características semelhantes às oferecidas por redes de comutação por circuito, para o transporte dos sinais multimídia. Neste sentido, redes IP podem utilizar mecanismos de qualidade de serviço como o DiffServ, para prover tratamento adequado dos sinais de áudio e vídeo e assim, aumentar a qualidade percebida pelos usuários. As aplicações de colaboração visual são notáveis candidatas a utilização de mecanismos de QoS da rede. Neste caso é desejável que estas aplicações estejam aptas a especificar o nível de qualidade de serviço desejado e requisitem este nível de serviço para a rede. Neste contexto, o trabalho apresenta um modelo para o desenvolvimento de um terminal H.323 capaz de requisitar qualidade de serviço para a rede IP, visando aumentar a qualidade percebida pelo usuário em relação aos sinais de mídia. Neste terminal foi incluída uma entidade chamada de EPQoSE, responsável pela sinalização de QoS em benefício do terminal. Além disso, o modelo proposto neste texto apresenta um sistema de gerenciamento baseado em políticas, responsável por controlar as requisições de QoS dos terminais H.323, dentro de um domínio. Como o terminal precisa se comunicar com estas entidades, apresentamos no trabalho, a maneira como ele faz isso e definimos um conjunto de funções que devem ser implementadas pelo QoSM no terminal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os controladores programáveis tornaram-se fator decisivo para o controle de processos em ambientes industriais. Permitir o gerenciamento desses, eleva-os ao mesmo grupo de outros equipamentos da rede. Gerenciar esses dispositivos e o processo controlado tende a facilitar a identificação de falhas, as intervenções no processo e demais vantagens trazidas por um bom esquema de gerência. Uma maneira de realizar esse gerenciamento é por meio de programas conhecidos como supervisórios. Além das aplicações de supervisão, uma nova classe de ferramentas, que também possibilita o gerenciamento tanto do controlador quanto do processo a esse submetido, vem sendo disponibilizada. A presença de protocolos de gerenciamento, tal qual o SNMP, já é uma realidade em alguns dos modelos de equipamentos oferecidos por vários fabricantes, promovendo uma integração com plataformas de gerência já existentes no mercado. A proposta deste trabalho inclui a elaboração de um modelo de gerenciamento usando XML, atualmente em ampla ascensão e aceitação. Está, também, previsto a construção de um protótipo capaz de realizar as funções de um agente. A criação de um modelo de gerenciamento baseado em tecnologias e especificações abertas, tais como XML e Web, possibilita desde a utilização de um navegador, até o desenvolvimento de novas ferramentas para a requisição/aquisição de dados em controladores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese aborda o tema sobre a dinâmica de complementaridade de conhecimentos entre Pequenas e Médias Empresas (PME) em um contexto em rede. Partindo da revisão analítica das teorias de redes interorganizacionais, de criação e gestão do conhecimento e dos processos de inovação, buscou-se a compreensão da relevância estratégica das redes, sobretudo para o desenvolvimento das PME. A partir das evidências teóricas, a questão de pesquisa confrontada foi compreender como ocorre a dinâmica de complementaridade de conhecimentos em um contexto em rede. Para aprofundar tal problemática, tentou-se, a partir de evidências empíricas, construir um esquema conceitualanalítico com a finalidade de auxiliar na compreensão do funcionamento de empresas organizadas em rede. A pesquisa empírica foi conduzida por meio de entrevistas com os dirigentes de empresas e instituições localizadas na AGIVEST (Brasil), na Tecnópole do Futuroscope (França) e no Pólo de Informática de São Leopoldo (Brasil). Os resultados da pesquisa levaram às seguintes evidências: a) as pressões contingenciais, como, por exemplo, necessidade, assimetria, reciprocidade, competitividade, legitimidade, flexibilidade e eficiência, exercem influência na formação, no funcionamento e na complementaridade de conhecimentos entre as empresas em um contexto em rede; b) a dinâmica de complementaridade de conhecimentos em um contexto em rede é diretamente influenciada pelos níveis de coerência e de conectividade entre as empresas; c) a quantidade e a qualidade das situações de interação existentes no contexto de uma rede exercerão influência nos níveis de conectividade entre as empresas; d) os mecanismos de coordenação utilizados para facilitar a governança exercem influência nos níveis de coerência entre as empresas; e) o nível de complementaridade de conhecimentos em um contexto em rede terá influência nos processos internos de inovação das empresas. Em síntese esses resultados sinalizam que a existência de um ambiente de sinergia e complementaridade de conhecimentos em um contexto em rede sofre influência de elementos como pressões contingências, coerência, conectividade, mecanismos de coordenação e situações de interação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentro de um contexto de mercado cada vez mais disputado e concorrencial, as empresas buscam ampliar sua competitividade e garantir sua sobrevivência através da definição de boas estratégias. No entanto, mais importante que a qualidade em si das estratégias estabelecidas está à capacidade de implementá-las. O presente trabalho apresenta uma proposta de modelo de gestão, utilizando como ferramentas o Balanced Scorecard e o gerenciamento de processos, com a finalidade principal de desdobramento e implementação das estratégias pela estrutura organizacional, através do alinhamento dos objetivos estratégicos com os processos críticos da organização. A metodologia utilizada apresenta características de estudo de caso, uma vez que aplica uma pesquisa exploratória em uma grande empresa do ramo de refino de petróleo. A revisão bibliográfica elaborada nesta dissertação trata dos conceitos fundamentais do Balanced Scorecard e do gerenciamento de processos, os quais fornecem a base teórica para o desenvolvimento do trabalho. Como resultado final, a partir de informações obtidas através de pesquisas realizadas na referida empresa, propõe-se um método de gestão constituído por onze etapas. Este método foi aplicado para um dos processos da empresa, visando exemplificar a sua utilização. Como conclusão, observou-se que a utilização do método demonstrou permitir alinhar as estratégias da organização com as ações práticas realizadas pela estrutura funcional, explicitando sua contribuição na obtenção dos resultados desejados para seus processos críticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo geral da tese foi desenvolver um modelo sistêmico de segurança do trabalho (também denominado 5C) com base nos fatores causais e contributivos aos acidentes do trabalho abordados na literatura, na análise macroergonômica do trabalho e no ponto de vista de quem os percebe (fator subjetivo). A revisão de literatura sobre Teorias e Modelos da Causa do Acidente e uma Modelagem para o Gerenciamento de Risco foi a base para a definição dos cinco fatores (5C) da primeira versão do Modelo Sistêmico de Segurança do Trabalho: carga de trabalho, confiabilidade, capacitação, custos e cultura de segurança. O referencial teórico sobre cada fator C, para a definição dos respectivos subfatores e para a concepção da estrutura do modelo que pressupõe hierarquia e permeabilidade entre os fatores 5C e fatores hipotéticos de distância e proximidade. A representação gráfica do modelo seguiu o tipo diagramático e configuração espiral. Os estudos de caso, cuja abordagem e procedimentos metodológicos tiveram como base o método de Análise Macroergonômica Trabalho (AMT) de Guimarães (1998; 2005), viabilizaram a submissão dos (sub)fatores 5C à realidade. Os estudos foram realizados no contexto de trabalho de operadores trens urbanos (Cenário I) e de eletricistas de redes aéreas desenergizadas do sistema de distribuição de energia elétrica (Cenário II), os quais possuem grau de risco três e periculosidade caracterizada por risco de contato ou de exposição a sistema elétrico de potência, permanente ou intermitente A avaliação do modelo seguiu aborgadem híbrida. A avaliação qualitativa consistiu na confrontação dos (sub)fatores 5C prescritos do modelo com os fatores descritos obtidos nos estudos de caso (Cenários I e II). Os resultados promoveram o estabelecimento dos parâmetros qualitativos dos subfatores 5C e, em decorrência, a confirmação dos (sub)fatores 5C do modelo. De outra parte, revelaram demandas de segurança não idênticas, o que era esperado, tendo em vista as características e peculiaridades de cada tarefa/sistema. A avaliação quantitativa foi realizada por meio de questionário elaborado a partir das informações geradas ao longo da pesquisa e testes estatísticos, aplicados sobre uma amostra da população do Cenário I. Os resultados indicaram que todos os (sub)fatores 5C impactam na segurança do trabalho em diferentes níveis (graus de importância) e que a intensidade de cada fator 5C para a ocorrência de acidentes varia em função do tipo de acidente. Verificou-se, também, a existência de correlações entre os fatores 5C, o que confirma a natureza sistêmica do modelo e, em decorrência, a estrutura hieráquica, o pressuposto de permeabilidade e os fatores hipotéticos de distância e proximidade. A versão final do Modelo Sistêmico de Segurançado Trabalho seguiu a primeira versão, acrescida pelos subfatores 5C, relações de constrangimento-resposta, quatro níveis (conceitual, estratégico, tático e operacional) e uma proposta de usabilidade segundo as perspectivas bottom-up e top-down. A validação do modelo implicará na sua aplicação em diferentes contextos de trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preocupação com a qualidade ambiental aumentou significativamente nos últimos anos. Isso é evidente pela rígida legislação ambiental e pela mudança de comportamento da sociedade frente a este assunto. Nesse contexto os estabelecimentos de serviço de saúde estão sendo obrigados a se adequarem aos novos sistemas de gerenciamento de resíduos sólidos, oriundos das suas atividades, mas nada se comenta à respeito do efluente gerados por estes empreendimentos. Os problemas associados aos efluentes gerados nos centros de serviços de saúde tem sido motivo de preocupação devido ao desconhecimento do perigo potencialmente escondido neste. Na cidade de Porto Alegre as águas residuais provenientes dos hospitais não são tratadas, sendo transportadas por redes coletoras até o Lago Guaíba. Este é uma das principais fontes de abastecimento de parte da população desta cidade. Este trabalho apresenta como objetivo analisar as características básicas físico-químicas de efluentes hospitalares de quatro unidades de saúde da cidade de Porto Alegre – RS, comparando-os com a legislação vigente no que diz respeito a limites de descarte de efluentes. A amostragem proposta foi aplicada a quatro unidades paralelamente, sendo coletadas cinco amostras de cada unidade num período de dois anos. As amostragens foram compostas. Por fim, constatou-se que os efluentes oriundos de serviço de saúde, para a segurança, principalmente do Meio Ambiente, deverão ser previamente tratados antes de atingir a rede pública coletora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de gerenciamento dinâmico de uma cadeia de suprimentos que tem por objetivo determinar os níveis de pedidos, vendas, estoque e níveis de serviço da cadeia de suprimentos de modo a otimizar a lucratividade total da cadeia. A lucratividade da cadeia de suprimentos é enfocada sob a perspectiva da inclusão dos efeitos dos custos de transporte por meio de uma estrutura linear côncava de custos. Essa estrutura é composta por um conjunto de equações ajustadas, representativas dos custos de transporte. Assim, é possível a obtenção de economias de escala em função das quantidades entregues. O trabalho pode ser dividido em duas etapas principais. A primeira etapa compreende, em um contexto de gerenciamento da cadeia de suprimentos, uma revisão bibliográfica que abrange os principais aspectos da modelagem tradicionalmente utilizada para a determinação de quantidades ótimas de pedido e entrega, as principais deficiências e as diferentes abordagens de custos de transporte. A segunda etapa é caracterizada pela formulação, simulação e avaliação dos resultados do modelo de gerenciamento dinâmico da cadeia. Nessa etapa, analisa-se a influência da estrutura de custos de transporte nas decisões de reabastecimento da cadeia de suprimentos. A determinação dos níveis de pedidos, vendas, estoque e de serviço, os custos e a lucratividade da cadeia é feita a partir da otimização de cenários. Neste trabalho realiza-se uma análise comparativa de cenários para identificar a influência da alteração de parâmetros nos resultados do modelo. Os resultados apresentam-se promissores e, com relação aos custos de transporte, verificou-se que os limites de capacidade de transporte e os custos mínimos de transporte têm grande influência nas decisões de reabastecimento. Enfim, a principal contribuição deste trabalho está relacionada à possibilidade de tornar a estrutura de custos de transporte dos modelos de gerenciamento dinâmico da cadeia de suprimentos mais próxima da estrutura de custos reais. Palavras-chave: cadeia de suprimentos; custos de transporte; modelo de gerenciamento dinâmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo propõe um método alternativo para a previsão de demanda de energia elétrica, através do desenvolvimento de um modelo de estimação baseado em redes neurais artificiais. Tal método ainda é pouco usado na estimativa de demanda de energia elétrica, mas tem se mostrado promissor na resolução de problemas que envolvem sistemas de potência. Aqui são destacados os principais fatores que devem pautar a modelagem de um sistema baseada em redes neurais artificiais, que são: seleção das variáveis de entrada; quantidade de variáveis; arquitetura da rede; treinamento; previsão da saída. O modelo ora apresentado foi desenvolvido a partir de uma amostra de 125 municípios do Estado do Rio Grande do Sul (Brasil), nos anos de 1999 a 2002. Como variáveis de entrada, foram selecionados a temperatura ambiente (média e desvio-padrão anual), a umidade relativa do ar (média e desvio-padrão anual), o PIB anual e a população anual de cada município incluído na amostra. Para validar a proposta apresentada, são mostrados resultados baseados nas simulações com o modelo proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho avalia a importância e o desempenho dos atributos de qualidade nos serviços de conectividade de redes de uma concessionária de telecomunicações, segundo a percepção dos seus clientes. Foi realizado um levantamento qualitativo para identificar os atributos de qualidade mais importantes para os clientes, e a partir deste foi realizada uma pesquisa quantitativa na população de 161 clientes do estado do Rio Grande do Sul que utilizam estes serviços. Ao aplicar os resultados da pesquisa em uma matriz de importância x desempenho, foi possível classificar os atributos de qualidade destes serviços em ordem de importância, bem como avaliar o seu desempenho comparado com os atributos de qualidade dos mesmos serviços dos concorrentes. A identificação de atributos considerados importantes e com desempenho percebido pelos clientes inferior aos concorrentes, trouxe a necessidade de melhorar as características da qualidade nos serviços de conectividade de redes da Brasil Telecom. Para tanto, foi utilizada a metodologia QFD (Quality Function Deployment ou Desdobramento da Função Qualidade), que permite captar as necessidades, expectativas e desejos do consumidor e traduzi-las em requisitos de qualidade para um determinado serviço ou produto. Com base na priorização das características da qualidade definidas no QFD, foi proposto um plano de melhoria das especificações de qualidade dos serviços de conectividade de redes da concessionária de telecomunicações do estado do Rio Grande do Sul.