72 resultados para Funcionamento anormal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Marketing de Rede, também conhecido como Marketing Multinível ou Venda Direta Multinível, é um componente da empresa de venda direta. É um método de distribuição que leva produtos e serviços diretamente ao consumidor, de diversos mercados, por meio de distribuidores independentes. O presente trabalho teve como objetivo analisar o porquê e como as empresas estão utilizando o Marketing de Rede como uma alternativa de ação mercadológica. A pesquisa foi conduzida de acordo com o método de estudo de casos e analisou o perfil de três Empresas, as práticas, características e princípios de funcionamento do sistema de Marketing de Rede. Por meio de depoimentos pessoais, entrevistas e questionários com os executivos, distribuidores e consumidores envolvidos no sistema e fontes bibliográficas, buscou-se traçar um panorama atual do Marketing de Rede. As conclusões incluem os princípios de funcionamento do modelo, o relacionamento existente entre empresa, distribuidor e consumidor na distribuição do produto e a oportunidade de negócio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A permanente busca pela qualidade como diferencial nas instituições de ensino, bem como a necessidade de atender aos critérios estabelecidos pela legislação para a revalidação da autorização de funcionamento dos Centros Universitários no Brasil, foram os elementos que determinaram a abrangência desta pesquisa. Devido à complexidade e ao amplo espectro de itens que compõem o que podemos determinar como sendo qualidade, a pesquisa limitou-se a identificar os fatores pedagógicos e administrativos relevantes para a avaliação da qualidade no ensino. Para limitar o campo da pesquisa, esta foi feita utilizando o método de estudo de caso, que é uma estratégia de pesquisa que examina um fenômeno contemporâneo dentro do seu contexto real, e para tanto, foi pesquisado o curso de Bacharelado em Informática do Centro Universitário Positivo - UnicenP, em Curitiba. Dentre as metodologias que poderiam ser utilizadas, foi escolhida a metodologia denominada Soft System Methodology, ou simplesmente SSM. Esta metodologia, proposta por Peter Checkland em 1985 na Universidade de Lancaster no Reino Unido, é uma resposta às dificuldades de aplicação de metodologias que tendem a enfatizar que os objetivos dos sistemas são mensuráveis e que estes podem ser decompostos em sub-sistemas, através da técnica top-down, quando essas metodologias são aplicadas a problemas empresariais. A SSM permite a ordenação e a estruturação de situações problemáticas complexas e que se apresentam, aparentemente inconsistentes e com múltiplas visões pelos envolvidos no processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo examinou o comportamento do preço das ações de empresas brasileiras após a realização de seasoned equity offerings (SEOs), no médio e no longo prazo, tendo como base as companhias com ações negociadas na Bolsa de Valores de São Paulo (BOVESPA), entre 1993 e 1997. O retorno anormal cumulativo (CAR) apresentou um retorno residual de –15,80% para o período de três anos após a emissão e de –34,04% para o período de cinco anos, estatisticamente significante ao nível de 5% e 1%, respectivamente. Na segmentação das amostras por setor de atividade econômica, ano de emissão e classe de ação emitida, os resultados encontrados sugerem que esses fatores podem influenciar os desempenhos de longo prazo das companhias brasileiras após a realização de SEOs. Verificou-se que os piores desempenhos estão concentrados nas empresas de menor patrimônio líquido. Além do mais, os piores retornos dos preços, em relação ao mercado, ocorreram para empresas que realizaram SEOs em 1993 e 1994, sugerindo que aspectos conjunturais presentes na economia brasileira influenciam o comportamento do preço das ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolvimentos recentes na tecnologia de informação têm proporcionado grandes avanços no gerenciamento dos sistemas de transportes. No mundo já existem várias tecnologias testadas e em funcionamento que estão auxiliando na tarefa de controle da operação do transporte público por ônibus. Esses sistemas geram informações úteis para o planejamento e operação dos sistemas de transportes. No Brasil, os investimentos em tecnologias avançadas ainda são muito modestos e estão focados em equipamentos que auxiliam no controle da evasão da receita. No entanto, percebe-se um crescente interesse, por parte dos órgão gestores e operadores, em implementar sistemas automatizados para auxiliar na melhoria da qualidade dos sistemas de transportes e como forma de aumentar a produtividade do setor. Esse trabalho traz à discussão os sistemas avançados desenvolvidos para o transporte público coletivo, com o objetivo de definir o perfil da tecnologia avançada que está de acordo com as necessidades dos gestores e operadores brasileiros. Na realização do trabalho foi empregada uma ferramenta de planejamento denominada Desdobramento da Função Qualidade – QFD (Quality Function Deployment), bastante utilizada para direcionar os processos de manufatura e produto, e para hierarquizar os atributos considerados importantes para o gerenciamento do transporte público urbano no Brasil. O resultado do trabalho indica um grande interesse em implantar tecnologia avançada para auxiliar no monitoramento dos tempos de viagem e tempos perdidos durante a operação do transporte público. Essa tecnologia também é tida como capaz de melhorar o desempenho das linhas, através da manutenção da regularidade e pontualidade. Ainda, sistemas inteligentes que propiciam informações precisas aos usuários contribuem para melhorar a imagem do modal ônibus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese realiza uma leitura sobre a produção das identidades de gênero, de geração e de etnias nos livros didáticos de Geografia, do ensino fundamental. Ela se inscreve no terreno das discussões que examinam as relações entre poder e produção de significados, ancorada em ferramentas teóricas fornecidas pela vertente pós-estruturalista dos Estudos Culturais. A investigação pretende demonstrar que as invenções identitárias são engendradas através de discursos, que produzem significados por meio de diversos referentes: origem, sexo, idade, cor da pele, configuração geográfica. A problematização e a discussão desenvolvida durante a pesquisa permitiram evidenciar que há uma regularidade na maneira de produzir as identidades. Também demonstram que as identidades são posicionadas com significados fixos, cristalizados e universais, predominando uma homogeneização de sentido. As diferenças entre as identidades são produzidas em diversas dimensões e constantemente alteradas, mas sempre seguindo uma política interessada em permitir que sejam posicionadas como distintas. Pelas diferenças, as identidades são definidas e classificadas, autorizando e legitimando uma hierarquia territorial binária entre elas. Entre uma série de relações traçadas a partir dessa leitura, argumenta-se que essa produção identitária é uma continuidade do projeto da Modernidade e do processo civilizatório ocidental, nos quais a diferença é vista com estranhamento, sendo inferiorizada. Esta pesquisa estabelece os seguintes focos para análise: Uma divisão do mundo— examino como os discursos dos livros didáticos de Geografia fabricam o território como uma matriz, para a partir daí estabelecer as identidades. Procuro demonstrar como os discursos constroem essa matriz bipolar —“desenvolvida” e “subdesenvolvida”— diante de tantas diversidades históricas, socioeconômicas, culturais, étnicas, etc. e conseguem erguer fronteiras impenetráveis, que funcionam para conformar as identidades em dois territórios, anulando outras possibilidades; Gênero – a reafirmação da polaridade— descrevo e problematizo o funcionamento dos discursos que procuram produzir identidades distintas entre homens e mulheres por meio de uma sexualização dos espaços doméstico e do mercado de trabalho. Essa separação espacial captura homens e mulheres em territórios opostos, disponibilizando uma hierarquia socioeconômica entre eles; Gerações – aprisionadas em “etapas da vida”— centro o foco analítico na constituição das identidades das crianças e dos/as idosos/as por meio das idades da vida, para dar sustentação a uma racionalidade capitalista-moderna. Também mostro que o rompimento das definições etárias dessa 14 lógica implica numa política identitária que os inventa como diferentes; Etnia – a naturalização das diferenças— mostro a forma como os discursos dos livros didáticos de Geografia acionam estratégias estruturadas por meio de um esquema epidérmico e da configuração geográfica para produzir, posicionar as identidades étnicas e capturá-las para territórios: ocidentais e Outros. Também comento que a movimentação de algumas identidades étnicas para outros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento desordenado das cidades tem gerado muitos problemas de infraestrutura e impactos ao meio ambiente. No que se refere aos recursos hídricos, problemas de abastecimento, poluição e enchentes são cada vez mais constantes. À medida que a cidade se urbaniza e se impermeabiliza, vários são os impactos que vão atuar no sentido de provocar ou agravar as enchentes urbanas. No caso da drenagem urbana é preciso repensar o que vem sendo feito, buscando soluções alternativas às atualmente apresentadas, uma vez que estas não têm se mostrado eficientes. Uma possível solução para estes problemas é a aplicação de medidas de controle do escoamento na fonte, dentre elas o microrreservatório de detenção. Baseando-se na busca de soluções para os problemas citados, este trabalho tem o objetivo geral de verificar experimentalmente o funcionamento de microrreservatórios de detenção no controle da geração do escoamento superficial. Para isso foi construído um módulo experimental nas dependências do IPH, composto por um microrreservatório de 1m3, monitorado através de linígrafos que registram as vazões de entrada e saída, recebendo contribuição de uma área de 337,5m2. O período de monitoramento iniciou em agosto de 2000 e se estendeu até janeiro de 2001. De posse dos dados coletados foi possível fazer uma análise da eficiência deste dispositivo no controle do escoamento superficial, bem como estudar a real necessidade de manutenção da estrutura. Também foi feita uma análise do impacto da presença de sedimentos (folhagens) na água de escoamento nas estruturas de descarga. O trabalho também deixa uma contribuição no que se refere a critérios de projeto e dimensionamento de estruturas desta natureza. Finalmente foi possível concluir que o sistema é eficiente no controle da vazão de pico, porém o reservatório não permitiu um aumento no tempo de resposta da bacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca desenvolver um aço para cementação a alta temperatura através da adição de nióbio como microligante, a fim de que os compostos formados forneçam partículas de segunda fase que atuem como ancoradoras do grão austenítico, já que o processo de crescimento de grão, especialmente anormal, é conseqüência natural das temperaturas envolvidas. A elevação da temperatura tem como objetivo proporcionar um ganho em produtividade pela redução dos tempos de cementação. Procura-se também estabelecer uma comparação do aço proposto a aços de cementação convencionais (DIN 17Cr3 e SAE 5115). Utilizou-se um aço SAE 5115 com 0,034% de nióbio, que foi submetido a diferentes condições de ensaio em laboratório: deformação a frio por compressão livre em três graus de deformação (isento, 25 e 50%); com posterior aquecimento em patamares de temperatura que simulam diferentes níveis de cementação (930 , 950 , 1000 e 1050 C), bem como diferentes tempos de manutenção em temperatura, de tal forma a atingir camadas cementadas hipotéticas em torno de 1,0 mm de profundidade. Encerram-se os testes submetendo o aço estudado a um processo de produção industrial de pinos de pistão, que sofrem deformação a temperatura ambiente e cementação a 950 C por 2,5 h O aço SAE 5115 ao “Nb” mostrou um melhor desempenho no controle dos grãos austeníticos, tanto para os ensaios de simulação realizados em laboratório e comparados ao aço DIN 17Cr3, como frente ao processo de produção de pinos de pistão tendo como comparativo o aço SAE 5115. O modelo teórico de Hudd e outros (que trata os carbonitretos de nióbio como de extensiva solubilidade mútua) e o de Gladman (que define os nitretos de alumínio e de nióbio como mutuamente exclusivos), associados às equações de Wagner (para coalescimento das partículas de segunda fase), bem como à equação de Gladman e Pickering (que determina o raio crítico de partícula para uma distribuição aleatória de partículas), mostraram-se bastante adequados em prever a resposta das partículas precipitadas, partindo-se da composição química do aço, principalmente para as partículas de carbonitreto de nióbio em condições que não envolvessem níveis elevados de deformação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata da Administração Baseada em Valor (VBM do inglês Value Based Management), que é uma ferramenta de auxílio à administração de empresas, que busca a identificação de value drivers, que são controles internos a serem monitorados, que devem abranger os principais pontos vistos pelo mercado como criadores de valor, pois o objetivo central da VBM é a majoração de valor para o acionista. A VBM também se utiliza do fluxo de caixa descontado (DCF do inglês Discounted Cash Flow). O objetivo central desta dissertação é fazer uma análise comparativa da estrutura interna de funcionamento e acompanhamento e dos controles de uma organização do segmento de telecomunicações com a filosofia da VBM, identificando o distanciamento de uma para com a outra. A empresa pesquisada é a Dígitro Tecnologia Ltda., de Florianópolis, que não utiliza a VBM. É uma pesquisa quantitativa e foi desenvolvida através do método de estudo de caso. Sua investigação foi dividida em três pontos principais: (1) a identificação, na empresa, da estrutura básica necessária para a implantação da Administração Baseada em Valor, (2) os itens necessários para se montar um DCF e (3) os controles internos possuídos pela organização, que possam servir como value drivers ou suas intenções de implantar controles. O estudo de caso foi único e exploratório, contando com a aplicação de entrevistas semi-estruturadas, observação direta e coleta de documentos. Conclui-se que a organização pesquisada está distante da filosofia da VBM, porém, com intenção de utilizar-se de inúmeros conceitos da Administração Baseada em Valor para auxiliar sua gestão.