996 resultados para Quarto de Milha - Desempenho


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta revisão de literatura é fruto de indagações sobre a mudança na postura do Estado brasileiro no que concerne à avaliação na atualidade. A temática desta pesquisa é a inserção da ferramenta da avaliação de desempenho da saúde no Brasil. Mais precisamente, o estudo traz uma análise dos índices de desempenho do subsistema público (IDSUS) e do índice elaborado pela Agência Nacional de Saúde (ANS) para avaliar o subsistema privado da saúde (IDSS). Dessa maneira, esta dissertação tem como objetivo analisar os programas de qualificação do sistema de saúde brasileiro através da avaliação do Índice de Desempenho da Saúde Suplementar (IDSS) e do Índice de Desempenho do SUS (IDSUS), considerando seus impactos na relação público-privado do setor saúde. Para dar conta desses objetivos, a pesquisa examinou os Programas de Qualificação do Sistema de Saúde Brasileiro tanto na sua face pública quanto na privada, utilizando as técnicas de análise documental e bibliográfica. A análise transcorreu a partir do levantamento de documentos oficiais e da literatura produzida sobre o tema. Além da leitura de documentos da Agência Nacional de Saúde (ANS), Ministério da Saúde (MS), Instituto de Estudos da Saúde Suplementar (IESS), Federação de Seguros (FENASEG), Associação Brasileira de Medicina de Grupos (ABRAMGE) e Instituto Brasileiro de Geografia e Estatística (IBGE), foram consultados trabalhos acadêmicos e selecionados textos jornalísticos que evidenciaram o processo de implantação e utilização do Programa de Qualificação da Saúde no Brasil. A dissertação então trouxe à tona, admitindo como base a análise do IDSUS recentemente criado e do IDSS, a necessidade de se rediscutir as finalidades das avaliações de desempenho propostas. Tanto o IDSS quanto o IDSUS são iniciativas pioneiras positivas que podem e devem ser aprimoradas, para que possam de fato instrumentalizar o controle social e o gestor na priorização e no planejamento das ações de saúde. O instrumento utilizado pela ANS foi considerado eficaz, democrático e participativo no que diz respeito ao alcance dos objetivos do Programa de Qualificação das Operadoras de Planos de Saúde. O mesmo conseguiu integrar pressupostos de modelos e instrumentos de gestão referenciados pela literatura como modernos e eficazes, como a gestão por resultados. Promoveu não só mais transparência ao subsistema privado, mas induziu, em certa medida, a concorrência do setor. Já em relação à face pública, percebeu-se que mesmo em face da jovialidade da proposta do IDSUS, o mesmo mapeou alguns pontos críticos do subsistema e apontou a necessidade de se trabalhar o setor de forma mais eficiente. Entretanto, esta pesquisa concluiu que ambos os movimentos de avaliação dos subsistemas público e privado não se completam, não dialogam como deveriam, evidenciando uma dificuldade em perceber e organizar o sistema como um todo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este texto é uma fabulação que cumpre papel de revelar um processo de trabalho em arte ao longo de dois anos. Trata-se de um percurso teórico-poético percorrido a partir da descoberta/invenção de um ateliê de criação em meio a minha residência. Um quadrado de 2x2 metros demarcado por sobreposição = fita amarela. Instaurado em divergentes contextos paisagísticos = casa, quarto de hotel, estúdio de dança, galeria de arte, palco, cidade. Trata de habitar os mesmos friccionando esfera de vivência pessoal e sítio específico de acontecimento. No texto, tem lugar reflexões pessoais a partir do trabalho, articulada a outros artistas (como Lygia Clark, Angel e Klauss Vianna, Antonin Artaud, Yves Klein, Min Tanaka, Tadashi Endo) e teóricos (dentre eles Hannah Arendt e Michel Foucault), compondo diferentes tons de fala produzidos ao longo desse período de trabalho

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A população de idosos cresce rapidamente no Brasil. A prevalência de hipertensão arterial sistêmica (HAS) e distúrbios cognitivos é elevada nesta população. Testamos a hipótese de que a HAS reduz o desempenho cognitivos em idosos. Foram selecionamos idosos hipertensos e normotensos com idade ≥ 60 < 80. O desempenho cognitivo foi avaliado pelo Cambridge Cognitive Examination Revised (CAMCOG-R), por subtestes do Wechsler Adult Intelligence Scale v.3 (WAIS III), além do Rey Auditory Verbal Learning Test (RAVLT), e o dos Trail Making Tests A/B (TMT-A/B). O desempenho cognitivo avaliado pelo escore global do CAMCOG-R e do QI estimado do WAIS III está reduzido nos idosos hipertensos mesmo quando controlado pela escolaridade, depressão, estado geral de saúde e qualidade de vida. O desempenho cognitivo em diversos domínios específicos controlados para a escolaridade, depressão, estado geral de saúde e qualidade de vida, e avaliados pelo CAMCOG-R, WAIS III, TMT-A e RAVLT também está reduzido nos idosos hipertensos. O presente estudo sugere que a HAS está associada ao declínio do desempenho cognitivo global em idosos. Notadamente, o desempenho das funções executivas está reduzido nos idosos hipertensos. Especula-se que a HAS seja um fator de risco para o declínio progressivo do desempenho cognitivo e, portanto, para o desenvolvimento de demência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dessa pesquisa é apresentar uma ferramenta alternativa ao valor econômico adicionado na mensuração da performance empresarial correlacionada com o valor de mercado. Na revisão da literatura apresenta-se o conceito de estrutura e custo de capital, utilizando a metodologia do CAPM e do APT. São igualmente apresentadas as principais medidas financeiras de desempenho tais como: retorno operacional sobre o investimento, retorno sobre o patrimônio liquido, retorno sobre os ativos, além de outras formas para cálculo do retorno. Na sequência introduzimos o conceito de lucro residual e o valor econômico adicionado, discutindo suas vantagens, desvantagens, dificuldades e limitações dessa ferramenta. Através do EVA podemos calcular o valor de mercado adicionado, fundamental para o cálculo do valor patrimonial ajustado. Também é apresentado nessa obra a interpretação do EVA pela ótica do modelo Fleuriet de planejamento financeiro. Após essa explanação teórica é apresentado o Financial Value Added proposto por esse trabalho, como alternativa ao Valor Econômico Adicionado na mensuração do desempenho empresarial. Essa ferramenta exclui da base de cálculo as receitas e despesas econômicas, uma vez que as mesmas em alguns casos distorcem o resultado como é constatado no teste com as empresas: Sadia S.A. e Perdigão S.A. onde os resultados foram 54% na Sadia e 13% na Perdigão superiores ao EVA. Em nenhum momento argumenta-se a substituição do EVA, apenas a introdução do FVA como alternativa nos casos em que o EVA não funcione adequadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de Internet para a distribuição de fluxos dedeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos dedeo na Internet. A idéia básica da distribuição dedeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços dedeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição dedeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo dedeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade dedeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese, analisamos um corpus formado por questões de Língua Portuguesa do ENEM de 2010, 2011, 2012 e 2013, para observação de como gramática e leitura estão implicadas na compreensão do texto. Consideramos a hipótese de que componentes gramaticais são geralmente negligenciados em descrições e em estudos do processamento da leitura, porque alunos demonstram menor desempenho em questões que implicam a gramática. Com fundamentação em Azeredo (2013a/b, 2007a/b, 2004), Kleiman (2013, 2006, 2004a/b), Marcuschi (2008, 2006, 2003), Travaglia (2013, 2009, 2004, 2002) e em orientações oficiais para o ensino (PCN, PCNLP, OCNEM), descrevemos como conteúdos gramaticais são mobilizados na produção de sentidos pela leitura. A Matriz de Habilidades do SAEB é empregada como referencial para explicitação de habilidades, na análise das questões do ENEM, que são aplicadas em avaliações do Ensino Médio de duas turmas, resultando em percentuais de aproveitamento. Esses resultados constituem índices do nível de desenvolvimento da leitura desses alunos. Propomos, então, uma nova descrição de procedimentos em questões de gramática, considerando noções de compreensão, reconhecimento e aplicação gramatical

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo produtivo industrial pode gerar uma grande quantidade de efluentes líquidos. Esses efluentes, quando não tratados, podem poluir o solo e a água, podendo causar grande impacto ambiental. Nesse sentido é imprescindível que todas as indústrias que geram efluentes líquidos possuam uma estação de tratamento. Porém, para que a estação esteja permanentemente funcionando de acordo com seu objetivo, essa deve ser rotineiramente avaliada. Dessa forma, a avaliação de desempenho para Estação de Tratamento de Efluentes Industriais (ETEI) se torna uma ferramenta importante para a manutenção da eficiência da estação, pois se justifica por procurar pontos vulneráveis da planta de tratamento fornecendo os subsídios necessários à elaboração do diagnóstico e projetos de adequação dos sistemas, permitindo que os efluentes tratados fiquem em conformidade com as exigências estabelecidas pela legislação ambiental. Neste trabalho, foi elaborada uma proposta metodológica, formada por um roteiro, composto por níveis de questionamentos, que auxilia o avaliador na análise de desempenho da ETEI. Complementando esse roteiro foram elaboradas algumas listas de verificação que contribuem para guiar o avaliador em suas análises. Na elaboração das listas, manuais desenvolvidos em diversos países foram considerados. As listas de verificação incluem perguntas para a avaliação dos dados gerais da indústria, para seu Sistema de Gestão Ambiental (SGA) e para alguns sistemas e unidades operacionais da estação de tratamento. Para exemplificar um dos níveis de questionamento do roteiro foi incluído um estudo de caso, no qual o afluente e o efluente de uma indústria mineradora foram avaliados através da técnica estatística multivariada Análise de Componentes Principais (ACP), para demonstração do desempenho da estação de tratamento. O resultado da avaliação realizada demonstrou um bom desempenho da ETEI em tratar os efluentes líquidos. Espera-se, portanto, que este trabalho seja útil para a avaliação de desempenho em plantas de tratamento de efluentes industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa refere-se ao desenvolvimento de um novo sistema triagem ou classificação de risco para os serviços de urgências e emergências pediátricas e ao estudo de validade e confiabilidade deste instrumento. O primeiro tópico trata de conceitos e fundamentos relacionados à triagem e evidencia a complexidade do tema em vários aspectos. O segundo tópico apresenta as justificativas para o desenvolvimento de um novo sistema de classificação de risco para o contexto de saúde brasileiro, diante das inadequações de se adotar sistemas idealizados em países com desenvolvimento econômico, social e cultural diversos. O terceiro tópico apresenta os objetivos da pesquisa: rever o estado da arte em relação à validade e confiabilidade de sistemas de triagem em crianças, descrever o desenvolvimento de um sistema brasileiro de classificação de risco para urgências e emergências pediátricas e estudar a validade e confiabilidade do novo instrumento. O quarto tópico é uma revisão sistemática da literatura sobre a validade e confiabilidade dos sistemas de triagem utilizados na população pediátrica. Localizaram-se estudos sobre sete sistemas de triagem desenvolvidos no Canadá, Reino Unido, EUA, Austrália, Escandinávia e África do Sul. Constatou-se a dificuldade de se comparar o desempenho de diferentes instrumentos, devido à heterogeneidade dos desfechos, das populações e dos contextos de saúde estudados. O quinto tópico descreve o processo de desenvolvimento de um instrumento brasileiro de classificação de risco em pediatria, CLARIPED, a partir do consenso entre especialistas e pré-testes. Justificou-se a escolha da Escala Sul Africana de Triagem como referência, pela sua simplicidade e objetividade e pela semelhança socioeconômica e demográfica entre os dois países. Introduziram-se várias modificações, mantendo-se a mesma logística do processo de triagem em duas etapas: aferição de parâmetros fisiológicos e verificação da presença de discriminadores de urgência. O sexto tópico se refere ao estudo prospectivo de validade e confiabilidade do CLARIPED no setor de emergência pediátrica de um hospital terciário brasileiro, no período de abril a julho de 2013. Uma boa validade de construto convergente foi confirmada pela associação entre os níveis de urgência atribuídos pelo CLARIPED e os desfechos evolutivos utilizados como proxies de urgência (utilização de recursos, hospitalização, admissão na sala de observação e tempo de permanência no setor de emergência). A comparação entre o CLARIPED e o padrão de referência mostrou boa sensibilidade de 0,89 (IC95%=0,78-0,95) e especificidade de 0,98 (IC95%=0,97-0,99) para diagnosticar elevada urgência. A confiabilidade interobservadores, resultou num kappa ponderado quadrático substancial de 0,75 (IC95%: 0,74-0,79). O sétimo e último tópico tece considerações finais sobre dois aspectos: a insuficiência de evidências científicas sobre os sistemas de triagem na população pediátrica e a oportunidade e relevância de se desenvolver um sistema brasileiro de classificação de risco para urgências e emergências pediátricas, válido e confiável, com possibilidades de adoção em âmbito nacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar as práticas de divulgação do EBITDA como métrica de desempenho operacional no gerenciamento de segmentos, no período de 2010 a 2012. Trata-se de um estudo descritivo com abordagem qualitativa e quantitativa dos dados realizada por meio da Análise de Conteúdo das Notas Explicativas e do Relatório da Administração. A amostra objetiva é composta por 260 empresas com situação ativa na BM&FBOVESPA em 2013 e distribuídas entre 20 setores da economia. O ano inicial de pesquisa foi determinado pelo fato de ser o primeiro ano da obrigatoriedade de divulgação das Informações por Segmento conforme o pronunciamento técnico do CPC 22. Inicialmente, foram analisadas 780 notas explicativas. Em seguida, a partir da investigação das divulgações das Informações por Segmento pelo CPC 22 em notas explicativas a amostra de trabalho foi constituída por 185; 198 e 203 entidades, respectivamente, em 2010, 2011 e 2012. Deste modo, foram observados nesses três anos 586 relatórios da administração. Os resultados desta pesquisa demonstram que as práticas de divulgação do EBITDA com métrica de desempenho operacional no gerenciamento de Segmentos possui uma representatividade de evidenciação entre os relatórios financeiros de 18%; 16% e 17% respectivamente em 2010, 2011 e 2012. O relatório financeiro com maior participação na divulgação do EBITDA no gerenciamento de negócios foi o Relatório da Administração com 11% em 2010, 10% em 2011 e 11% em 2012. Conclui-se que, em média, 83% das companhias abertas brasileiras não utilizaram o EBITDA como métrica de desempenho operacional no gerenciamento dos segmentos no período de 2010 a 2012.