1000 resultados para Operação de sistemas de distribuição


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A incorporação da proteção do direito à saúde em textos constitucionais é uma forma contemporânea de expressão do desejo de uma sociedade em ver efetivado esse direito fundamental. Os efeitos dessa incorporação dependem da interação de diferentes fatores relacionados ao comportamento dos agentes públicos e dos cidadãos. A resultante dessa interação têm sido pouco estudada do ponto de vista quantitativo. Nesse trabalho foi realizada uma análise de regressão múltipla visando identificar o efeito, sobre a taxa de mortalidade infantil, da presença da proteção ou da ausência da proteção do direito à saúde nas constituições de 112 países. Para tanto, foi desenvolvida uma variável categórica denominada ¿nível de proteção constitucional do direito à saúde¿, avaliada a partir da análise de conteúdo dos textos constitucionais e incorporada ao modelo na forma de uma variável dummy binária. Também foram incorporadas variáveis de controle para renda per capita, efetividade do governo, despesas públicas com saúde, alfabetização feminina, presença de jovens na população e distribuição de renda (F sign.= 0,000; R2 ajustado = 0,901). A análise de regressão revelou que a variável dummy é estatisticamente significante a um nível de 5% (p-valor = 0,039) e revelou ainda uma associação negativa entre a presença da proteção constitucional do direito à saúde e as taxas de mortalidade infantil. De acordo com o modelo testado, a presença da proteção constitucional do direito à saúde, mantidos constantes os demais fatores, está associada a uma redução no valor esperado da mortalidade infantil da ordem de 14,61%. Os resultados sugerem que a inclusão da proteção do direito à saúde no texto constitucional efetivamente exerce um impacto positivo sobre o sistema de saúde de um país.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho investiga a relação entre aprendizado e dinâmica em sistemas complexos multiagentes. Fazemos isso através de estudos experimentais em um cenário de racionalidade limitada que situa-se na interesecção entre Inteligência Artificial, Economia e Física Estatística, conhecido como “Minority Game”. Apresentamos resultados experimentais sobre o jogo focando o estudo do cenário sob uma perspectiva de Aprendizado de Máquina. Introduzimos um novo algoritmo de aprendizado para os agentes no jogo, que chamamos de aprendizado criativo, e mostramos que este algoritmo induz uma distribuição mais eficiente de recursos entre os agentes. Este aumento de eficiência mostra-se resultante de uma busca irrestrita no espaço de estratégias que permitem uma maximização mais eficiente das distâncias entre estratégias. Analisamos então os efeitos dos parâmetros deste algoritmo no desempenho de um agente, comparando os resultados com o algoritmo tradicional de aprendizado e mostramos que o algoritmo proposto é mais eficiente que o tradicional na maioria das situações. Finalmente, investigamos como o tamanho de memória afeta o desempenho de agentes utilizando ambos algoritmos e concluímos que agentes individuais com tamanhos de memória maiores apenas obtém um aumento no desempenho se o sistema se encontrar em uma região ineficiente, enquanto que nas demais fases tais aumentos são irrelevantes - e mesmo danosos - à performance desses agentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento de água combinando energia solar e gás como fontes energéticas. A ênfase desta análise está na influência que a forma de conexão dos coletores solares e do circuito da fonte auxiliar de energia ao reservatório exercem sobre a eficiência e o custo de operação do sistema. O trabalho engloba uma montagem experimental, caracterização de componentes, validação experimental de um programa de simulação, análises de eficiência utilizando o programa e análises econômicas com dados simulados. Na fase experimental desta Tese, foram montados três sistemas de aquecimento de água. Dois sistemas utilizando reservatórios verticais e um sistema utilizando reservatório horizontal. Os sistemas foram montados com componentes similares: reservatórios metálicos isolados termicamente com capacidade de 600 litros (verticais), reservatório de polietileno isolado termicamente com capacidade de 600 litros (horizontal), 2 coletores solares de placas planas, tubulação de cobre e aquecedores a gás de passagem de 7,5 l /min. Os componentes foram caracterizados mediante a curva de eficiência dos coletores solares, eficiência dos aquecedores a gás de passagem e o coeficiente de perdas térmicas dos reservatórios Sensores foram instalados para monitorar os sistemas em operação. Os sinais dos sensores foram medidos através de uma central de aquisição de dados conectado a um computador. Temperaturas, irradiância solar, consumo de gás e consumo de água foram registrados ao longo do tempo. Os resultados experimentais foram comparados com resultados calculados por meio de um programa desenvolvido no Laboratório de Energia Solar apresentando boa concordância. Utilizando o mesmo programa determinou-se a configuração do sistema de aquecimento de água com energia solar e gás mais eficiente para a cidade de Porto Alegre com um determinado perfil de consumo. Outros tipos de sistemas de aquecimento de água foram simulados para atender o mesmo perfil de demanda. Análises econômicas comparando estes sistemas entre si foram realizadas considerando diversos cenários econômicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Métodos de preparo e sistemas de culturas podem afetar os atributos químicos do solo e, conseqüentemente, sua fertilidade. Com o objetivo de avaliar os efeitos destas práticas, foram analisadas amostras de solo coletadas de seis camadas (0-2,5, 2,5-5, 5-7,5, 7,5-12,5, 12,5-17,5 e 17,5-30 cm), no 13º ano de experimento de longa duração, instalado em 1985, em um Argissolo Vermelho distrófico, localizado na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS. O experimento constitui-se de três métodos de preparo (convencional-PC, reduzido-PR e plantio direto-PD), três sistemas de culturas (aveia/milho-A/M, vica/milho-V/M e aveia+vica/ milho+caupi-A+V/M+C) e duas doses de N mineral no milho (0 kg N ha-1 ano-1 e 180 kg N ha-1 ano-1 na forma de uréia). Houve aumento no estoque de carbono orgânico (CO) do solo no PD e PR quando associados com sistemas de culturas com maior aporte de resíduos vegetais ao solo. Os métodos de preparo sem revolvimento do solo apresentaram maior valor de CTC efetiva e a pH 7,0, em concordância com o teor de CO. Maiores teores de Ca, Mg e P foram determinados na camada superficial do solo (0-5 cm) em PD e PR, enquanto o solo em PC apresentou distribuição homogênea destes atributos na camada arável (0-17,5 cm). Sistemas de culturas que incluíram leguminosas, principalmente o sistema V/M, apresentaram menor valor de pH e maiores valores de Al trocável e saturação por alumínio. Em média, tratamentos com aplicação de N mineral apresentaram menores valores de pH e de saturação por bases e aumento da saturação por alumínio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho buscou identificar e avaliar a escolha do Imip à luz da teoria neoinstitucional, mediante os mecanismos isomórficos que caracterizam o campo das organizações de saúde. Trata-se de um estudo de caso, tendo o Imip como objeto de análise, voltado especificamente para dois modelos de informatização da operação e da gestão, a fim de verificar qual o mais adequado para as especificidades da instituição, incluindo o aspecto financeiro, custo/benefício. O primeiro modelo se refere a um sistema próprio de informatização; o segundo a um modelo de sistema de gestão já existente, comercializado por empresa especializada nesta tecnologia. A metodologia abrangeu pesquisas bibliográficas, documentais e de campo. O referencial teórico foi a teoria neoinstitucional e o trabalho de campo constou de uma pesquisa incluindo observação simples, visando compor variáveis dos dois modelos avaliados, e coleta de dados realizada por meio da aplicação de dois questionários: um questionário aberto, com os dirigentes do Imip, e um questionário misto, com cem colaboradores, utilizadores do sistema, escolhidos aleatoriamente, por sorteio. Entre os achados se identificou claras referências ao isomorfismo, principalmente o mimético, nas percepções dos indivíduos respondentes. Ao final da pesquisa, foi possível concluir que a contratação de um sistema de gestão hospitalar, já existente no mercado, concebido e comercializado por empresa de tecnologia especializada no segmento da saúde, justificou-se como a melhor escolha para a organização, pois, as semelhanças existentes entre os processos do Instituto e aqueles contidos no sistema eram muito mais relevantes que suas particularidades. Outro fator relevante levou em consideração os elevados custos para uma única instituição desenvolver e manter sozinha um sistema atualizado segundo as exigências normativas e técnicas necessárias às organizações de saúde e os padrões de qualidade da informação estabelecidos pelo SUS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho é um estudo de caso exploratório que aplica os conceitos de Gestão da Cadeia de Suprimentos para a análise da operação de numerário no Brasil e para a proposição de melhorias. Como operação de numerário entende-se a distribuição de cédulas e moedas comumente usadas nas transações econômicas na sociedade, atividade que hoje movimenta aproximadamente R$120 Bilhões diariamente no país. O levantamento de dados usado para o mapeamento da operação de numerário foi feito através de uma pesquisa primária com gerentes e executivos de importantes empresas participantes desse setor e de uma pesquisa secundária com entidades desse setor tais como a ABTV, a FEBRABAN e o BACEN. A análise da operação foi feita utilizando dois modelos de Gestão da Cadeia de Suprimentos: o modelo de Supply Chain Management de Lambert, Cooper e Pagh (1998) e o framework Supply Chain Operations Reference model (SCOR) do Supply Chain Council (2008a). A metodologia de pesquisa escolhida permitiu a análise da operação e a identificação de oportunidade de melhorias para essa cadeia de suprimentos, alinhadas aos dois modelos de Gestão da Cadeia de Suprimentos citados. Por fim, são indicadas sugestões para pesquisas futuras nessa área.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é identificar e descrever uma amostra dos sistemas de custos bancários existentes e em operação no País, inferindo por este meio o grau de desenvolvimento destes sistemas. O assunto foi tratado através de e utilização pesquisa de campo, dividida em três fases, distintas e diferenciadas. Na primeira etapa foram enviados questionários pelo correio a 54 bancos nacionais. Destinavam-se a formar um quadro geral do estágio de desenvolvimento dos sistemas de custos em instituições financeiras. A primeira fase da pesquisa forneceu resultados modestos, basicamente quantitativos e poucas conclusões firmes. Dessa abordagem genérica, o trabalho evoluiu para as outras fases. A segunda fase consistiu em 5 entrevistas levadas a efeito em bancos com experiências diferenciadas na área de custos. A terceira fase, também sob a forma de entrevistas pessoais, foi efetivada a partir da constatação de diversas questões que haviam ficado em aberto a partir da abordagem dada ao assunto na segunda fase. Estas duas últimas fases particularizaram e melhoraram os resultados obtidos, formando um quadro representativo da situação dos sistemas de custos em instituições financeiras. Este quadro indicou uma grande preferência por sistemas de custeio direto, com alocação de "overhead", em detrimento de sistemas de custeio-padrão. Informações de rentabilidade,particularmente em relação aos clientes, estão entre os objetivos mais citados. A pesquisa evidenciou os problemas enfrentados na operacionalização dos sistemas, basicamente na coleta de dados físicos e nos diversos critérios de aproximação que são utilizados. Observou-se que as soluções que melhoram a qualidade da informação gerada pelo sistema passam necessariamente pela otimização da coleta e atualização dos dados físicos. Observouse, ainda, que todos os sistemas estudados tem restrições de ordem metodológica, apontando-se a ampla discussão dos problemas como alternativa para o seu constante aperfeiçoamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estuda a problema do dimensionamento de lote em sistemas de produção intermitente, considerando os diferentes estágios do fluxo de materiais em uma empresa incluindo compra, produção e distribuição. Apresenta diversos modelos de mínimo custo, baseados em pressupostos faz como: operação em condições ideais (modelo clássico); existência ou não de descontos de compra; abastecimento instantâneo ou contínuo; existência ou não de restrições na disponibilidade de recursos; demanda determinística ou probabilística; existência ou não de permissão de faltas; itens isolados, itens múltiplos ou agregados de itens; estágio início ou estágios múltiplos; etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Renovados são os desa os trazidos à computação distribuída pelos recentes desenvolvimentos nas tecnologias de computação móvel. Tais avanços inspiram uma perspectiva na qual a computação tornar-se-á uma entidade ubíqua em um futuro próximo, estando presente nas mais simples atividades do dia-a-dia. Esta perspectiva é motivadora das pesquisas conduzidas no escopo do projeto ISAM, as quais investigam as questões relativas ao uso da computação em ambientes móveis de larga escala. Neste trabalho é apresentado o sistema PRIMOS (PRIMitives for Object Scheduling), o qual busca, pela complementação da plataforma Java, satisfazer as emergentes necessidades do ISAM. Especi camente, o PRIMOS constitui um conjunto de primitivas para instanciação remota e migração de objetos, comunicação e monitoração, direcionadas a um ambiente de computação distribuída de larga escala de características pervasivas. A primitiva de instanciação remota disponibilizada pelo PRIMOS aumenta a plataforma Java padrão com a possibilidade de criar e ativar objetos em nodos remotos do sistema. Por sua vez, a primitiva de migração faculta a relocação de objetos. A consecu- ção de tais semânticas tem como sub-produto a de nição de semânticas para ativação e desativação de objetos, assim como para captura e restauração de contexto de execução. Sob a perspectiva da comunicação, o PRIMOS de ne um esquema de endereçamento independente de protocolo de transporte, assim como uma interface neutra para acesso às facilidades de comunicação. A integração destas funcionalidades ao mecanismo de invocações remotas da plataforma Java, o RMI, permite a desvinculação deste da pilha TCP/IP. Por conseguinte, habilita a adoção de transportes otimizados ao hardware de comunicação disponibilizado pelo sistema. No que se refere à monitoração, o PRIMOS de ne um esquema exível e extensível baseado em sensores. A exibilidade vem principalmente da possibilidade dos sensores terem seus parâmetros de operação recon gurados a qualquer momento em resposta a novas necessidades do sistema. Por outro lado, o sistema é extensível pois o conjunto de sensores básicos, ditos nativos, pode ser aumentado por sensores providos pela aplicação. Com intuito de validar as idéias postuladas, um protótipo foi construído para o sistema. Sobre este, baterias de testes foram realizadas para cada uma das primitivas constituintes do PRIMOS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A mensuração do desempenho organizacional é um assunto que tem sido muito estudado nos anos mais recentes, sendo esta uma preocupação tanto acadêmica quanto dos executivos de negócio. Foram feitos diversos estudos sobre o tema, uma vez que tais estudos foram elaborados obedecendo aos critérios exigidos no contexto. Desta forma, a presente pesquisa buscou encontrar elementos de apoio à estruturação de um Sistema de Medidas de Desempenho que seja reconhecido como de vital importância enquanto ferramenta auxiliar para a tomada de decisões. Estes elementos surgiram através da análise do processo de planejamento estratégico, uma vez que é a partir deste processo que se baseia a estruturação do sistema. Através do método de estudo de múltiplos casos, a presente pesquisa estudou duas empresas do setor de distribuição. A primeira destas estava em uma etapa inicial do processo de estruturação, onde, durante esta formulação, predomina o empirismo; e a segunda, em sua etapa final, o que permitiu a realização da pesquisa com uma visão deste processo de estruturação em suas diferentes etapas. Os resultados da pesquisa trazem à luz a relevância dos elementos culturais e ambientais para a estruturação de um Sistema de Medidas de Desempenho. Do mesmo modo, estes resultados destacam a importância de se executar os princípios de gestão estratégica durante a operacionalização deste sistema. Como produto final desta pesquisa, é apresentado um modelo de estruturação de um Sistema de Medidas de Desempenho para empresas do setor de distribuição, cujos principais elementos são os de Política e Cultura Organizacional, de Ambientes Externo e Interno, de Estratégia, de Objetivos Estratégicos e de Princípios de Gestão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O sistema varejista de Curitiba, mais precisamente a localização, presente e futura, das instituições que compõem foi examinada nesta dissertação. Inicialmente foram apresentados os estudos sobre as teorias do desenvolvimento urbano e os referentes a teoria varejista, elaborando-se, a artir disso, uma síntese teórica capaz de fornecer instrumentos utilizados na explicação e análise dos sistemas urbano e varejista de Curitiba. Posteriormente foi estudado o caso específico de Curitiba, em termos de evolução urbano e varejista. Este estudo foi útil na identificação das principais variáveis considerados na consecução do objetivo proposto. Ao final é apresentada uma proposição da metodologia e análise da localização das instituições varejistas em Curitiba.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Brasil é um dos principais atores do novo ambiente econômico mundial, mas para permanecer atrativo, deve fazer progressos significativos no campo das Tecnologias de Informação e da Comunicação (TIC). Assim, um serviço de internet banda larga é primordial para o desenvolvimento de regiões distantes, geralmente de baixa renda e que não têm acesso a instalações de telecomunicações, nem aos serviços de internet banda larga. De fato, a penetração da banda larga no Brasil apresenta situação inferior à média mundial e boa parte da população ainda está excluída do mundo digital por causa das desigualdades sociais e as dimensões continentais do país. Para preencher esta lacuna, o governo federal lançou, em 2010, o Programa Nacional de Banda Larga (PNBL). No entanto, a penetração de banda larga permanece em níveis baixos, mesmo em grandes centros urbanos e com uma distribuição regional desigual, especialmente quando comparados internacionalmente. As concessionárias não estão desempenhando o seu papel de universalização dos serviços de banda larga e as pequenas e médias operadoras podem desempenhar um papel fundamental na promoção desse objetivo. Esse trabalho tem o propósito de investigar se é possível conciliar o modelo vigente de telecomunicações regido pela Lei Geral das Telecomunicações (LGT) com a universalização dos serviços de banda larga, desde que apoiado num mercado competitivo e menos concentrado, com pequenas e médias operadoras. Como verificação, foi feito um trabalho empírico com base em entrevistas semiestruturadas com profissionais de telecomunicações do setor público e privado, assim como uma análise de padrão de codificação dessas entrevistas. Os resultados mostram, porém, que o ambiente regulatório atual pode gerar incentivos à operação de qualidade nas áreas remotas e de baixa renda, mas não de forma generalizada. A universalização requer uma mudança estrutural do modelo e é a política pública federal que deve dar as diretrizes, com objetivos claros. Tampouco há modelo ideal de regulação, mas um entorno regulatório adequado pode ser motor de desenvolvimento do setor. O estabelecimento de compromissos entre os atores também é fundamental, assim como a decisão política na origem, dando suporte para o planejamento e projetos de longo prazo. E é a partir dessa decisão que se desenvolvem as medidas regulatórias de competição e fiscalização que vão garantir a execução do que foi previsto e desenhado.