1000 resultados para Qualidade de Serviço ao Utente
Resumo:
Esta memória intitulada “Satisfação no Trabalho. Estudo de Caso dos Agentes Prisionais da Cadeia Central da Praia” inscreve-se no âmbito de curso de Licenciatura em Administração Pública e Autárquica realizado pela Universidade Jean Piaget de Cabo Verde e visa analisar os principais factores/dimensões que influenciam a satisfação no trabalho dos agentes prisionais da Cadeia Central da Praia. . A problemática da satisfação no trabalho é um tema decorrente e pertinente e, cada vez mais sente-se a necessidade de estudar o comportamento das pessoas no seu local de trabalho, alicerçado nas finalidades de cada organização principalmente a missão, a visão e os valores da mesma. Neste contexto, torna-se imprescindível compreender o comportamento humano na organização no sentido de verificar as lacunas organizacionais e tentar melhorar a qualidade de serviço. Durante muitos anos, os agentes prisionais em Cabo Verde têm sido uma classe de fraca revindicação. Ultimamente, têm estado a mostrar um elevado nível de insatisfação com a sua entidade patronal – Ministério da Justiça – alegando o incumprimento dos aspectos acordados. Esta situação, que directa ou indirectamente se enquadra com os problemas e/ou satisfação laboral estudados no curso de Administração Pública e Autárquica, despertou-me interesse em estudá-la no contexto da satisfação no trabalho. A elaboração desta memória baseou-se nos métodos quantitativos e explicativos. A técnica utilizada foi o estudo de caso, tendo sido aplicado um inquérito por questionário a uma amostra de 46 agentes prisionais (representando 47%) da Cadeia Central da Praia (CCP). A técnica de amostragem foi estratificada proporcional e o método de selecção aleatório. Além das ferramentas descritivas, a correlação e a regressão foram as técnicas estatísticas utilizadas na análise de dados, com apoio do programa SPSS, versão 20.0. Globalmente, os agentes prisionais inquiridos mostram-se alguma insatisfação principalmente à remuneração, condições e segurança no trabalho e duração do trabalho. Os factores que mais influenciam a satisfação foram a satisfação perante determinadas tarefas e aspectos institucionais e a remuneração.
Resumo:
Resumo A infecção de sítio cirúrgico (ISC) tem sido apontada como a terceira causa mais comum de infecção nosocomial. Este estudo objetivou determinar o perfil epidemiológico da ISC e sua associação aos fatores de risco descritos. Trata-se de um estudo transversal, realizado no Hospital São João Batista de Viçosa-MG e na Clínica Cirúrgica de Cães e Gatos do Hospital Veterinário da Universidade Federal de Viçosa-MG, no período de setembro de 2012 a fevereiro de 2013. As taxas globais de ISC foram de 0,7% no hospital humano e 3,46% no veterinário. No hospital veterinário, a taxa de ISC não mostrou relação com o potencial de contaminação, apresentando a maior taxa nos procedimentos classificados como limpos. Quanto ao tipo de cirurgia, as ortopédicas são as mais comuns em ambos os hospitais e também as que apresentam maior taxa de ISC. Cirurgias com duração maior que 120 minutos corresponderam a 15,25% do total de procedimentos no hospital humano e são ainda menos comuns no veterinário, com 1,26%. A taxa de ISC não parece estar relacionada à duração da cirurgia nesta estratificação. As bactérias isoladas das feridas cirúrgicas foram multirresistentes e os dados levantados indicam que não houve critério quanto ao emprego da antibioticoprofilaxia, principalmente nas cirurgias limpas. Este cenário mostra que é de extrema relevância a atuação de uma comissão de controle de infecção hospitalar, a fim de garantir obtenção de dados fidedignos, para que se possa avaliar a qualidade do serviço prestado e assim promover a redução dos riscos de complicações pós- operatórias.
Resumo:
O trabalho da equipa técnico-pedagógica dos centros novas oportunidades deve assentar em práticas colaborativas, de modo a nortear-se pelo rigor e pela qualidade do serviço pois, só assim, se poderá realizar um acompanhamento adequado dos adultos. Alguns adultos referem que ao longo do processo de reconhecimento, validação e certificação de competências não tiveram o acompanhamento adequado por parte de alguns elementos da equipa técnico-pedagógica e, nesse sentido, considerámos que seria importante investigar se tal acontece, e daí a questão geral da nossa investigação - Como é que a equipa técnico-pedagógica pode promover o trabalho colaborativo de modo a realizar um acompanhamento adequado ao candidato? Efetivamente, só através do trabalho colaborativo, por parte da equipa, o adulto poderá ter um acompanhamento adequado pois “a complexidade dos problemas exige trabalho em equipa decorrente da assunção de projectos comuns.” (Alarcão e Tavares, 2003, p. 132). Assim, e tendo sempre por objetivo a implementação de boas práticas, levámos a cabo esta investigação, de natureza qualitativa, assente num estudo de caso, recorrendo também a dados de natureza quantitativa, de modo a analisar a importância do trabalho colaborativo no seio da equipa técnico-pedagógica dos centros novas oportunidades. Os resultados do nosso estudo permitem-nos concluir que as práticas colaborativas da equipa técnico-pedagógica do centro novas oportunidades, por nós investigado, não se encontram ainda devidamente consolidadas, mas os momentos de partilha e de reflexão já são uma realidade, pelo que a equipa tem plena consciência que é deste modo que deve nortear o seu trabalho. Assim, os dados obtidos apontam para a necessidade da equipa promover o trabalho colaborativo, intensificando os momentos de reflexão, envolvendo todos os elementos, onde se partilhem materiais, procedimentos e estratégias, de modo a desenvolver a capacidade crítica e auto-reflexiva. O coordenador tem um papel fundamental, enquanto supervisor e elemento dinamizador deste processo, devendo ser capaz de motivar a equipa a trabalhar deste modo, visando um acompanhamento adequado do candidato ao longo do processo de reconhecimento, validação e certificação de competências.
Resumo:
A dissertação tem a finalidade de identificar as razões e dificuldades para implantar departamento de Recursos Humanos em cinco empresas de porte médio comercializadoras de material de construção localizadas nos bairros da cidade de Macapá, capital do Estado do Amapá, Brasil. Para tanto, foi realizado um Levantamento (Survey) com empresários do ramo e representante do Sindicato de Materiais de Construção do Amapá (SINDMAT). Para a coleta de dados, participaram da pesquisa por meio de preenchimento de questionários semi-estruturados. Os dados obtidos confirmam que as razões e dificuldades para implantar esse departamento se devem ao alto custo para ser mantido, falta de experiencia em RH, desconhecimento de técnicas (know how) e acham desnecessário conhecer suas ferramentas de gestão. Os dados expuseram a existencia de obstáculos principalmente nos pontos fortes e pontos fracos do negócio para incentivar a qualidade do serviço e o aumento na venda dos produtos. Concluiu-se que para despertar nos empresários a necessidade de reflexão sobre a criação do Setor de RH, com a finalidade de aprimorar o negócio e, consequentemente, colaborar para uma aprendizagem consciente dos seus colaboradores. A falta de conhecimento e de assessoria dos empresário deste setor está retardando a implantação de um setor de RH. Com essa estrutura montada as empresas tem condições ao seu modo, no seu tempo implantarem uma área RH, para cuidar da gestão de pessoas, e com isso, crescerem e melhorarem e desenvolverem-se em todos os níveis. Com essas definições e a formatação correta dos RH na empresa, podemos resolver a maioria dos problemas inerentes a organização.
Resumo:
A motivação organizacional é assunto que vem sendo estudado mais profundamente com o passar do tempo, buscando entender o que realmente faz com que o colaborador se sinta motivado para desenvolver suas atividades laborais. A fim de atingir o objetivo proposto nesta pesquisa foram estudados os aspectos motivacionais no ambiente de trabalho da área administrativa do hospital filantrópico Divina Providência, localizado no município de Marituba integrante da área metropolitana do Estado do Pará e, qual a percepção dos clientes em relação aos serviços prestados por estes profissionais. Para tanto, a primeira parte do estudo, apresenta uma pesquisa bibliográfica, com o objetivo de coletar contribuições de diversos autores sobre o tema motivação Estes aspectos foram estudados sob a égide de estudiosos como Maslow, Herzberg, McGregor, Aldefer e Adams. O estudo justifica-se pela necessidade de serem obtidos dados que dizem respeito a aspectos objetivos e subjetivos que podem ser captados ou não na correlação entre os fatores motivacionais e o êxito dos serviços realizados. Face à natureza do problema, este estudo de caso tem como procedimento metodológico a aplicação e a análise de três questionários em três amostragens: colaboradores da área administrativa sem cargo de chefia, colaboradores que possuem cargo de chefia na área administrativa em dados sobre motivação laboral, clientes sobre a qualidade de serviços prestados pelo hospital. Por um lado, os dados evidenciaram uma visão realista em relação a motivação dos colaboradores. Mostrando ainda uma visão positiva em relação à qualidade dos serviços prestados. Os resultados expostos conseguiram demonstrar quais os principais fatores que representam a motivação dos colaboradores no trabalho além de visualizar a satisfação dos usuários com os serviços prestados.
Resumo:
GIULIANI, Thais de Almeida. Liderança em Resorts: um estudo dos estilos praticados no Brasil. 2012. 136p. Dissertação (Mestrado em Administração)- Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2012.
Resumo:
Esta dissertação, após a apresentação de uma revisão bibliográfica sobre aprendizado organizacional e gestão do conhecimento, aborda a questão do mapeamento, identificação e disseminação do conhecimento numa área operacional de uma empresa prestadora de serviços de telecomunicações. Baseado nos princípios da gestão do conhecimento, é descrito como foi realizado um levantamento dos postos de trabalho, seguido do mapeamento do conhecimento existente, identificação das necessidades e disseminação do conhecimento entre os indivíduos integrantes da área operacional. A disseminação do conhecimento ocorreu dentro dos respectivos postos de trabalho, tendo como objetivos aumentar a capacitação de todos os empregados e reduzir o risco de perda do conhecimento por "tum-over". A maior capacitação dos funcionários permite a melhoria da qualidade do serviço prestado e a redução dos tempos de recuperação dos serviços. A partir dos estudos realizados, criou-se um modelo para a implantação da gestão do conhecimento, o qual está organizado em três etapas principais: identificação, mapeamento e disseminação. O modelo proposto possibilita aplicar os conceitos de gestão do conhecimento de uma forma prática, utilizando os recursos disponíveis na própria empresa. O uso do modelo proposto pode auxiliar a manter as equipes capacitadas para o pleno desempenho de suas atividades.
Resumo:
O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Esta dissertação apresenta um estudo que analisa o grau de satisfação de clientes, pacientes e acompanhantes, acerca da assistência nutricional hospitalar da ISCMPA, que utiliza o índice de satisfação de clientes como indicador de desempenho, demostrando a preocupação em elevar a qualidade do serviço a níveis de excelência. Foi aplicado um questionário, realizando entrevista pessoal com 215 clientes, resultando num estudo descritivo, de corte transversal, de perfil qualitativo e quantitativo. A análise de resultados foi apresentada em três blocos: características dos envolvidos na investigação, nível de satisfação e grau de importância por constructos. Aspectos como percepção dos clientes da imagem da Instituição, posição frente à comunidade, fatores que os levariam a trocar de Hospital e os sentimentos expressos pelos respondentes na ocasião da pesquisa, também foram abordados. O índice de 95 % de satisfação dos clientes, meta da Instituição, foi atingido em quatro dos seis contructos avaliados: Comportamento e Atuação de Funcionários, Comunicação com a Equipe por Telefone, Contato Inicial com a Equipe de Nutrição e Higiene de Material da Copa. Os constructos que não alcançaram a meta foram Refeições e Adequação de Material. O conhecimento do grau de satisfação dos clientes permitiu estabelecer um plano de intervenção, definindo ações corretivas e de melhorias para constructos que não alcançaram a meta e para pontos críticos identificados.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.