998 resultados para Persistência de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta de conhecimento em dados hoje em dia é um ponto forte para as empresas. Atualmente a CardMobili não dispõe de qualquer sistema de mineração de dados, sendo a existência deste uma mais-valia para as suas operações de marketing diárias, nomeadamente no lançamento de cupões a um grupo restrito de clientes com uma elevada probabilidade que os mesmos os utilizem. Para isso foi analisada a base de dados da aplicação tentando extrair o maior número de dados e aplicadas as transformações necessárias para posteriormente serem processados pelos algoritmos de mineração de dados. Durante a etapa de mineração de dados foram aplicadas as técnicas de associação e classificação, sendo que os melhores resultados foram obtidos com técnicas de associação. Desta maneira pretende-se que os resultados obtidos auxiliem o decisor na sua tomada de decisões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Identificar, com o auxílio de técnicas computacionais, regras referentes às condições do ambiente físico para a classificação de microáreas de risco. MÉTODOS: Pesquisa exploratória, desenvolvida na cidade de Curitiba, PR, em 2007, dividida em três etapas: identificação de atributos para classificar uma microárea; construção de uma base de dados; e aplicação do processo de descoberta de conhecimento em base de dados, por meio da aplicação de mineração de dados. O conjunto de atributos envolveu as condições de infra- estrutura, hidrografia, solo, área de lazer, características da comunidade e existência de vetores. A base de dados foi construída com dados obtidos em entrevistas com agentes comunitários de saúde, sendo utilizado um questionário com questões fechadas, elaborado com os atributos essenciais, selecionados por especialistas. RESULTADOS: Foram identificados 49 atributos, sendo 41 essenciais e oito irrelevantes. Foram obtidas 68 regras com a mineração de dados, as quais foram analisadas sob a perspectiva de desempenho e qualidade e divididas em dois conjuntos: as inconsistentes e as que confirmam o conhecimento de especialistas. A comparação entre os conjuntos mostrou que as regras que confirmavam o conhecimento, apesar de terem desempenho computacional inferior, foram consideradas mais interessantes. CONCLUSÕES: A mineração de dados ofereceu um conjunto de regras úteis e compreensíveis, capazes de caracterizar microáreas, classificando-as quanto ao grau do risco, com base em características do ambiente físico. A utilização das regras propostas permite que a classificação de uma microárea possa ser realizada de forma mais rápida, menos subjetiva, mantendo um padrão entre as equipes de saúde, superando a influência da percepção particular de cada componente da equipe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Desenvolver um modelo preditivo de óbito hospitalar com base nos dados do Sistema de Informações Hospitalares do Sistema Único de Saúde. MÉTODOS: Estudo transversal com dados de 453.515 autorizações de internação de 332 hospitais do Rio Grande do Sul no ano de 2005. A partir da razão entre óbitos observados e óbitos esperados elaborou-se um ranking ajustado dos hospitais que foi comparado ao ranking bruto da taxa de mortalidade. Utilizou-se regressão logística para desenvolvimento do modelo preditivo de probabilidade para óbito hospitalar segundo sexo, idade, diagnóstico e uso de unidade de terapia intensiva. Foram obtidos os intervalos com 95% de confiança para 206 hospitais com mais de 365 internações por ano. RESULTADOS: Obteve-se um índice de risco para mortalidade hospitalar. A ordenação dos hospitais utilizando apenas a taxa de mortalidade bruta diferiu da ordenação quando se utiliza o ranking ajustado pelo modelo preditivo de probabilidade. Dos 206 hospitais analisados, 40 hospitais apresentaram mortalidade observada significativamente superior à esperada e 58 hospitais com mortalidade significativamente inferior à esperada. Uso de unidade de terapia intensiva apresentou maior peso para a composição do índice de risco, seguida pela idade e diagnóstico. Quando os hospitais atendem pacientes com perfis muito diferentes, o ajuste de risco não resulta numa indicação definitiva sobre qual prestador é o melhor. Os hospitais de grande porte apresentaram, no conjunto, maior número de óbitos do que seria esperado de acordo com as características das internações. CONCLUSÕES: O índice de risco de óbito hospitalar mostrou-se preditor adequado para o cálculo dos óbitos esperados, podendo ser aplicado na avaliação do desempenho hospitalar. Recomenda-se que, ao comparar hospitais, seja utilizado o ajuste pelo modelo preditivo de probabilidade de risco, estratificando-se pelo porte do hospital.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um grande número de alunos inicia todos os anos o estudo de música nos conservatórios e escolas de música, no entanto apenas uma pequena parte termina o ‘curso complementar’. Neste contexto a questão sobre que factores levam os alunos a persistir ou desistir assume pertinência. A presente comunicação analisa a motivação, baseando-se numa investigação das razões de sucesso, a partir da observação do perfil motivacional dos alunos que completam com sucesso os seus estudos musicais. Os factores de persistência do aluno no estudo da música serão abordados em duas vertentes: por um lado, a partir do apoio que recebem ou não dos possíveis agentes de motivação: família, escola de ensino genérico, escola de música, professores e amigos; por outro lado, a partir do próprio aluno - o que é que o leva a ultrapassar as vicissitudes inerentes ao estudo de música, sobretudo porque decorre, a maioria das vezes, em simultâneo com os estudos do ensino secundário ou superior, em competição directa com inúmeras solicitações proporcionadas pelo mundo tecnológico, pelo sistema de relações da sociedade actual e sem certezas quanto ao futuro profissional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Artigo baseado na comunicação proferida no 8º Congresso SOPCOM: Comunicação Global, Cultura e Tecnologia, realizado na Escola Superior de Comunicação Social (ESCS-IPL), Lisboa, Portugal, 17-19 de outubro de 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a evolução do consumo entre usuários de crack com histórico de tratamento. MÉTODOS: Uma coorte de, originalmente, 131 dependentes de crack admitidos em uma enfermaria de desintoxicação em São Paulo, SP, entre 1992 e 1994, foi re-entrevistada em três ocasiões: 1995-1996, 1998-1999 e 2005-2006. As variáveis averiguadas foram: dados demográficos, comportamento sexual de risco, padrões de consumo de crack e outras substâncias, prisões, desaparecimentos e óbitos. Na análise estatística empregou-se o teste de qui-quadrado, a regressão logística multinomial e regressão de Cox. RESULTADOS: Dos pacientes avaliados, 43 estavam abstinentes do crack (12 meses ou mais), 22 eram usuários, 13 estavam presos, dois desaparecidos e 27 estavam mortos. Foram identificados três grupos com trajetórias distintas de consumo pós-alta. Comportamento seguro com uso de preservativo foi identificado como fator relacionado ao grupo de abstinentes estáveis (p = 0,001). Teste HIV positivo na internação (p = 0,046); consumo de cocaína aspirada no último ano (p = 0,001) e tempo de uso de cocaína aspirada na vida (mais de 132 meses) (p = 0,000) foram fatores relacionados a uso de longo termo. Uso pregresso de cocaína endovenosa aumentou em 2,5 vezes as chances de óbito em 12 anos (p = 0,031) (IC95%: 1,08; 5,79). CONCLUSÕES: A recorrência e persistência do consumo nos anos pós-alta de tratamento refletem novas modalidades de uso do crack. Por outro lado, padrões de abstinência estável apontam a viabilidade dos processos de recuperação relativos ao uso de crack.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada à escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Matemática na Educação Pré-Escolar e nos 1º e 2º Ciclos do Ensino Básico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisar mudanças nos diferenciais por renda nas condições de saúde e no uso de serviços de saúde por idosos brasileiros. MÉTODOS: Foram analisadas amostras representativas da população brasileira com 60 anos ou mais em 1998 e 2008 (n = 27.872 e 41.198, respectivamente), oriundas da Pesquisa Nacional por Amostra de Domicílios. As variáveis consideradas foram renda mensal domiciliar per capita, autoavaliação da saúde, capacidade funcional, consultas médicas e hospitalizações nos 12 meses precedentes e uso exclusivo do Sistema Único de Saúde. A análise dos dados foi baseada em estimativas de prevalência e em razões de prevalência obtidas por meio da regressão de Poisson. RESULTADOS: Em 1998 e 2008, as prevalências ajustadas por idade e sexo da autoavaliação da saúde como ruim, do comprometimento da mobilidade e da incapacidade para realizar atividades da vida diária apresentaram fortes gradientes com o quintil da renda domiciliar per capita, com pior performance entre aqueles com renda mais baixa. As razões de prevalência ajustadas por idade e sexo entre o quintil inferior (mais pobres) e o superior (mais ricos) de renda permaneceram estáveis para pior autoavaliação da saúde (RP = 3,12 [IC95% 2,79;3,51] em 1998 e 2,98 [IC95% 2,69;3,29] em 2008), comprometimento da mobilidade (RP = 1,54 [IC95% 1,44;1,65 e 1,69[IC95% 1,60;1,78], respectivamente) e incapacidade para realizar atividades da vida diária (RP = 1,79 [IC95% 1,52;2,11] e 2,02 [IC95% 1,78;2,29], respectivamente). Observou-se redução das disparidades por renda na realização de três ou mais consultas médicas e no uso exclusivo do Sistema Único de Saúde. Não foram observadas desigualdades entre os extremos de renda na ocorrência de hospitalizações no mesmo período. CONCLUSÕES: Apesar da redução das desigualdades por renda de indicadores do uso de serviços de saúde, a magnitude das disparidades nas condições de saúde não diminuiu. São necessários estudos longitudinais para um melhor entendimento da persistência dessas desigualdades entre idosos brasileiros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação faz-se a apresentação dos trabalhos elaborados conducentes à realização de provas na Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia no ramo de Engenharia Electrotécnica, na especialidade de Sistemas de Informação Industriais, para obtenção do grau de Doutor. A tese defendida consiste na proposta de um enquadramento global de suporte ao processo de recolha e catalogação dos dados disponibilizados na Web por forma a permitir uma maior eficácia e melhor desempenho na sua exploração. O enquadramento global assenta nos seguintes pilares: i) uma metodologia geral; ii) uma arquitectura de referência; iii) uma metodologia específica de suporte à derivação de sistemas particulares e; iv) a operacionalização da arquitectura de referência. A metodologia geral está centrada no utilizador tendo por objectivo simplificar a recolha e catalogação dos dados electrónicos e viabilizando a personalização da Web pela construção de catálogos dinâmicos. A arquitectura de referência recorre à utilização de catálogos dinâmicos, sistemas de multiagentes inteligentes, ontologias e métodos de aprendizagem em texto, por contraste com os métodos habitualmente utilizados nos portais de recolha de dados. A metodologia específica de suporte à derivação de sistemas particulares possibilita uma aproximação sistemática à instalação da arquitectura, propondo um conjunto de passos que permitem capturar e configurar as necessidades do utilizador. Finalmente, a operacionalização da arquitectura de referência origina a construção de um protótipo composto por dois sistemas-base: o Sistema de Catalogação e o Sistema Interactivo de Apoio à Derivação de Sistemas Particulares. O Sistema de Catalogação é o sistema que permite o armazenamento e a consulta dos dados recolhidos através das pesquisas previamente efectuadas. O Sistema de Apoio à Derivação de Sistemas Particulares, permite a personalização do Sistema de Catalogação, pela definição de regras e SAD específicos, dedicados a cada caso concreto. Sumariamente, os obstáculos mais relevantes, abordados no decurso dos trabalhos, foram: • a coexistência de diversos formatos de dados na Web; • a capacidade de processamento dos dados, desde a filtragem de documentos tendo por base a sua relevância, passando pela identificação dos conceitos e sua posterior classificação; • a formalização do conhecimento com vista à adopção de uma terminologia comum; • a natureza do problema distribuído, complexo, descentralizado e com reduzida estruturação. Este documento está organizado em diversos capítulos e cada capítulo está dividido em várias secções. O primeiro capítulo apresenta a inovação e os objectivos genéricos do enquadramento global. O segundo capítulo descreve o estado da arte de um conjunto de assuntos essenciais para o desenrolar dos trabalhos. O terceiro capítulo apresenta, em detalhe, o enquadramento global e a arquitectura proposta. O quarto capítulo descreve a metodologia de derivação de sistemas particulares. O quinto capítulo apresenta o estudo de caso e os resultados obtidos que visam validar a tese defendida. Finalmente, o último capítulo apresenta as conclusões e trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.