997 resultados para Betão de ultraelevado desempenho
Resumo:
Esta revisão de literatura é fruto de indagações sobre a mudança na postura do Estado brasileiro no que concerne à avaliação na atualidade. A temática desta pesquisa é a inserção da ferramenta da avaliação de desempenho da saúde no Brasil. Mais precisamente, o estudo traz uma análise dos índices de desempenho do subsistema público (IDSUS) e do índice elaborado pela Agência Nacional de Saúde (ANS) para avaliar o subsistema privado da saúde (IDSS). Dessa maneira, esta dissertação tem como objetivo analisar os programas de qualificação do sistema de saúde brasileiro através da avaliação do Índice de Desempenho da Saúde Suplementar (IDSS) e do Índice de Desempenho do SUS (IDSUS), considerando seus impactos na relação público-privado do setor saúde. Para dar conta desses objetivos, a pesquisa examinou os Programas de Qualificação do Sistema de Saúde Brasileiro tanto na sua face pública quanto na privada, utilizando as técnicas de análise documental e bibliográfica. A análise transcorreu a partir do levantamento de documentos oficiais e da literatura produzida sobre o tema. Além da leitura de documentos da Agência Nacional de Saúde (ANS), Ministério da Saúde (MS), Instituto de Estudos da Saúde Suplementar (IESS), Federação de Seguros (FENASEG), Associação Brasileira de Medicina de Grupos (ABRAMGE) e Instituto Brasileiro de Geografia e Estatística (IBGE), foram consultados trabalhos acadêmicos e selecionados textos jornalísticos que evidenciaram o processo de implantação e utilização do Programa de Qualificação da Saúde no Brasil. A dissertação então trouxe à tona, admitindo como base a análise do IDSUS recentemente criado e do IDSS, a necessidade de se rediscutir as finalidades das avaliações de desempenho propostas. Tanto o IDSS quanto o IDSUS são iniciativas pioneiras positivas que podem e devem ser aprimoradas, para que possam de fato instrumentalizar o controle social e o gestor na priorização e no planejamento das ações de saúde. O instrumento utilizado pela ANS foi considerado eficaz, democrático e participativo no que diz respeito ao alcance dos objetivos do Programa de Qualificação das Operadoras de Planos de Saúde. O mesmo conseguiu integrar pressupostos de modelos e instrumentos de gestão referenciados pela literatura como modernos e eficazes, como a gestão por resultados. Promoveu não só mais transparência ao subsistema privado, mas induziu, em certa medida, a concorrência do setor. Já em relação à face pública, percebeu-se que mesmo em face da jovialidade da proposta do IDSUS, o mesmo mapeou alguns pontos críticos do subsistema e apontou a necessidade de se trabalhar o setor de forma mais eficiente. Entretanto, esta pesquisa concluiu que ambos os movimentos de avaliação dos subsistemas público e privado não se completam, não dialogam como deveriam, evidenciando uma dificuldade em perceber e organizar o sistema como um todo.
Resumo:
A população de idosos cresce rapidamente no Brasil. A prevalência de hipertensão arterial sistêmica (HAS) e distúrbios cognitivos é elevada nesta população. Testamos a hipótese de que a HAS reduz o desempenho cognitivos em idosos. Foram selecionamos idosos hipertensos e normotensos com idade ≥ 60 < 80. O desempenho cognitivo foi avaliado pelo Cambridge Cognitive Examination Revised (CAMCOG-R), por subtestes do Wechsler Adult Intelligence Scale v.3 (WAIS III), além do Rey Auditory Verbal Learning Test (RAVLT), e o dos Trail Making Tests A/B (TMT-A/B). O desempenho cognitivo avaliado pelo escore global do CAMCOG-R e do QI estimado do WAIS III está reduzido nos idosos hipertensos mesmo quando controlado pela escolaridade, depressão, estado geral de saúde e qualidade de vida. O desempenho cognitivo em diversos domínios específicos controlados para a escolaridade, depressão, estado geral de saúde e qualidade de vida, e avaliados pelo CAMCOG-R, WAIS III, TMT-A e RAVLT também está reduzido nos idosos hipertensos. O presente estudo sugere que a HAS está associada ao declínio do desempenho cognitivo global em idosos. Notadamente, o desempenho das funções executivas está reduzido nos idosos hipertensos. Especula-se que a HAS seja um fator de risco para o declínio progressivo do desempenho cognitivo e, portanto, para o desenvolvimento de demência.
Resumo:
O objetivo dessa pesquisa é apresentar uma ferramenta alternativa ao valor econômico adicionado na mensuração da performance empresarial correlacionada com o valor de mercado. Na revisão da literatura apresenta-se o conceito de estrutura e custo de capital, utilizando a metodologia do CAPM e do APT. São igualmente apresentadas as principais medidas financeiras de desempenho tais como: retorno operacional sobre o investimento, retorno sobre o patrimônio liquido, retorno sobre os ativos, além de outras formas para cálculo do retorno. Na sequência introduzimos o conceito de lucro residual e o valor econômico adicionado, discutindo suas vantagens, desvantagens, dificuldades e limitações dessa ferramenta. Através do EVA podemos calcular o valor de mercado adicionado, fundamental para o cálculo do valor patrimonial ajustado. Também é apresentado nessa obra a interpretação do EVA pela ótica do modelo Fleuriet de planejamento financeiro. Após essa explanação teórica é apresentado o Financial Value Added proposto por esse trabalho, como alternativa ao Valor Econômico Adicionado na mensuração do desempenho empresarial. Essa ferramenta exclui da base de cálculo as receitas e despesas econômicas, uma vez que as mesmas em alguns casos distorcem o resultado como é constatado no teste com as empresas: Sadia S.A. e Perdigão S.A. onde os resultados foram 54% na Sadia e 13% na Perdigão superiores ao EVA. Em nenhum momento argumenta-se a substituição do EVA, apenas a introdução do FVA como alternativa nos casos em que o EVA não funcione adequadamente.
Resumo:
O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
Nesta tese, analisamos um corpus formado por questões de Língua Portuguesa do ENEM de 2010, 2011, 2012 e 2013, para observação de como gramática e leitura estão implicadas na compreensão do texto. Consideramos a hipótese de que componentes gramaticais são geralmente negligenciados em descrições e em estudos do processamento da leitura, porque alunos demonstram menor desempenho em questões que implicam a gramática. Com fundamentação em Azeredo (2013a/b, 2007a/b, 2004), Kleiman (2013, 2006, 2004a/b), Marcuschi (2008, 2006, 2003), Travaglia (2013, 2009, 2004, 2002) e em orientações oficiais para o ensino (PCN, PCNLP, OCNEM), descrevemos como conteúdos gramaticais são mobilizados na produção de sentidos pela leitura. A Matriz de Habilidades do SAEB é empregada como referencial para explicitação de habilidades, na análise das questões do ENEM, que são aplicadas em avaliações do Ensino Médio de duas turmas, resultando em percentuais de aproveitamento. Esses resultados constituem índices do nível de desenvolvimento da leitura desses alunos. Propomos, então, uma nova descrição de procedimentos em questões de gramática, considerando noções de compreensão, reconhecimento e aplicação gramatical
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
O processo produtivo industrial pode gerar uma grande quantidade de efluentes líquidos. Esses efluentes, quando não tratados, podem poluir o solo e a água, podendo causar grande impacto ambiental. Nesse sentido é imprescindível que todas as indústrias que geram efluentes líquidos possuam uma estação de tratamento. Porém, para que a estação esteja permanentemente funcionando de acordo com seu objetivo, essa deve ser rotineiramente avaliada. Dessa forma, a avaliação de desempenho para Estação de Tratamento de Efluentes Industriais (ETEI) se torna uma ferramenta importante para a manutenção da eficiência da estação, pois se justifica por procurar pontos vulneráveis da planta de tratamento fornecendo os subsídios necessários à elaboração do diagnóstico e projetos de adequação dos sistemas, permitindo que os efluentes tratados fiquem em conformidade com as exigências estabelecidas pela legislação ambiental. Neste trabalho, foi elaborada uma proposta metodológica, formada por um roteiro, composto por níveis de questionamentos, que auxilia o avaliador na análise de desempenho da ETEI. Complementando esse roteiro foram elaboradas algumas listas de verificação que contribuem para guiar o avaliador em suas análises. Na elaboração das listas, manuais desenvolvidos em diversos países foram considerados. As listas de verificação incluem perguntas para a avaliação dos dados gerais da indústria, para seu Sistema de Gestão Ambiental (SGA) e para alguns sistemas e unidades operacionais da estação de tratamento. Para exemplificar um dos níveis de questionamento do roteiro foi incluído um estudo de caso, no qual o afluente e o efluente de uma indústria mineradora foram avaliados através da técnica estatística multivariada Análise de Componentes Principais (ACP), para demonstração do desempenho da estação de tratamento. O resultado da avaliação realizada demonstrou um bom desempenho da ETEI em tratar os efluentes líquidos. Espera-se, portanto, que este trabalho seja útil para a avaliação de desempenho em plantas de tratamento de efluentes industriais.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
O objetivo deste trabalho é analisar as práticas de divulgação do EBITDA como métrica de desempenho operacional no gerenciamento de segmentos, no período de 2010 a 2012. Trata-se de um estudo descritivo com abordagem qualitativa e quantitativa dos dados realizada por meio da Análise de Conteúdo das Notas Explicativas e do Relatório da Administração. A amostra objetiva é composta por 260 empresas com situação ativa na BM&FBOVESPA em 2013 e distribuídas entre 20 setores da economia. O ano inicial de pesquisa foi determinado pelo fato de ser o primeiro ano da obrigatoriedade de divulgação das Informações por Segmento conforme o pronunciamento técnico do CPC 22. Inicialmente, foram analisadas 780 notas explicativas. Em seguida, a partir da investigação das divulgações das Informações por Segmento pelo CPC 22 em notas explicativas a amostra de trabalho foi constituída por 185; 198 e 203 entidades, respectivamente, em 2010, 2011 e 2012. Deste modo, foram observados nesses três anos 586 relatórios da administração. Os resultados desta pesquisa demonstram que as práticas de divulgação do EBITDA com métrica de desempenho operacional no gerenciamento de Segmentos possui uma representatividade de evidenciação entre os relatórios financeiros de 18%; 16% e 17% respectivamente em 2010, 2011 e 2012. O relatório financeiro com maior participação na divulgação do EBITDA no gerenciamento de negócios foi o Relatório da Administração com 11% em 2010, 10% em 2011 e 11% em 2012. Conclui-se que, em média, 83% das companhias abertas brasileiras não utilizaram o EBITDA como métrica de desempenho operacional no gerenciamento dos segmentos no período de 2010 a 2012.
Resumo:
A presente pesquisa objetiva verificar a contribuição da tecnologia da informação na previsão de indicadores de desempenho da Empresa Alfa. Para a realização deste estudo, foi realizado um estudo de caso único a fim de aprofundar na pesquisa de forma exploratória e descritiva. As técnicas utilizadas para tal foram análise documental e entrevista, que deram suporte à pesquisa quantitativa atendendo ao objetivo proposto no estudo e na fundamentação teórica. A pesquisa teve como base principal os resultados dos indicadores de desempenho dos anos de 2012 e 2013 descritos no planejamento estratégico referente ao ano de 2013. Através desses resultados foi possível prever os resultados dos indicadores para 2014 utilizando o software Weka e assim realizar as análises necessárias. Os principais achados demonstram que a Empresa Alfa precisará antecipar ações para maximizar seus resultados evitando que impactem negativamente na rentabilidade, além de ter a necessidade de manter uma base de dados sólida e estruturada que possa subsidiar previsões confiáveis e alimentar futuramente o programa a fim de realizar novas previsões. O resultado da pesquisa aponta que o sistema de informações Weka contribui para a previsão de resultados, podendo antecipar ações para que a organização possa otimizar suas tomadas de decisões, tornando-as mais eficientes e eficazes.
Resumo:
O objetivo deste estudo foi investigar os mecanismos de variabilidade da pressão arterial sistólica batimento-a-batimento através da análise espectral do componente de baixa frequência da variabilidade da pressão arterial sistólica, de medidas de velocidade da onda de pulso e de análise da pressão de incremento em idosos normotensos e hipertensos em tratamento anti-hipertensivo. Adicionalmente, investigamos a associação da variabilidade da pressão arterial com a espessura médio-intimal carotídea. Também investigamos a associação entre variabilidade da pressão arterial batimento-a-batimento e da frequência cardíaca com desempenho cognitivo. A pressão arterial foi medida continuamente através de fotopletismografia em posição supina e semi-ereta passiva. A variabilidade da pressão arterial foi estimada pelo desvio padrão das medidas batimento-a-batimento. Medidas de velocidade de onda de pulso, de pressão de incremento e ultrassonografia das artérias carótidas para medidas da espessura médio-intimal foram realizadas. O componente de baixa frequência da variabilidade da pressão arterial sistólica em posição supina e semi-ereta apresentou uma associação positiva independente coma variabilidade nos modelos de regressão linear múltipla ajustado pela velocidade de onda de pulso ou pela pressão de incremento.O componente de baixa frequência do barorreflexo em posição supina apresentou uma associação negativa independente com a variabilidade da pressão arterial sistólica e nos mesmos modelos. Não foi demonstrada associação entre a variabilidade da pressão arterial sistólica com espessura médio-intimal das artérias carótidas. Não foi demonstrada associação da variabilidade da pressão arterial sistólica batimento-a-batimento ou da frequência cardíaca com desempenho cognitivo global. Foi demonstrada associação positiva e independente do componente de baixa frequência do espectro de variabilidade da pressão arterial e da frequência cardíaca com domínios cognitivos relacionados ao lobo frontal. Em conclusão, a modulação simpática do tono vascular arterial, a função vascular miogênica e a desregulação do barorreflexo correlacionam-se com a variabilidade da pressão arterial batimento-a-batimento, o que não foi observado em relação `a rigidez arterial,pressão de incremento eespessura médio-intimal carotídea. A variabilidade da pressão arterial sistólica e da frequência cardíaca não apresentaram correlação com o desempenho cognitivo global, mas apresentaram associação positiva e independente com escores de função executiva.