898 resultados para Processamento de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As rápidas mudanças que se desenvolvem no planeta varrem conceitos antigos, alteram estratégias de empresas e mudam o comportamento de governos e nações. O agronegócio não fica incólume neste intenso processo. As políticas agrícolas e a estrutura do setor passam por ajustes e revisões. Dentro desta linha de pensamento, um cenário que se torna cada vez mais evidente é a competição entre cadeias, além da competição entre empresas de forma isolada. Nesta perspectiva, o gerenciamento da cadeia de abastecimento pode ser considerado um importante vetor na competitividade da cadeia, no momento em que preconiza a customização das atividades que agregam valor, integrando cada vez mais clientes e fornecedores. Mas para a efetividade deste gerenciamento, a gestão da informação ao longo da cadeia assume importância maior ainda, em relação ao seu uso nas empresas de forma isolada. Dentro do ambiente de mudanças do agronegócio, após a abertura da economia brasileira de 1990, a cadeia de abastecimento do arroz vem passando por intensas transformações para se manter competitiva. Dentre estas, surge o arroz orgânico como forma de segmentar mercados consumidores através da diferenciação, e o que é mais importante, a adição de valor ao produto, desde a produção rural. Por se tratar o arroz orgânico de um produto diferenciado, pressupôs-se que a cadeia de abastecimento para este produto, apresente diferenças da cadeia de abastecimento para o arroz commodity. Considerando isto é que se objetivou com esta pesquisa “analisar o processamento da informação na cadeia de abastecimento do arroz com transações de dois tipos de produtos: arroz commodity e arroz orgânico”. O método científico utilizado foi o estudo de caso, onde foram levantados dados e fatos dos agentes que formam os elos da cadeia de abastecimento do arroz commodity e do arroz orgânico, para subsidiar as análises necessárias a atingir o objetivo proposto. As principais conclusões a que se chegou são: quanto à cadeia, esta apresenta diferenças que vão desde as relacionadas aos produtos, até as transações realizadas entre os agentes da cadeia. Quanto à informação ao longo da cadeia, o agente de produção do arroz commodity e do arroz orgânico, é o elo que menos utiliza informações sistematizadas em suas decisões. Também, que existem diferenças nos fluxos de informações ao longo da cadeia de abastecimento quando ocorrem transações com arroz commodity e quando com arroz orgânico. Estas diferenças vão desde as informações trocadas, o conteúdo e objetivos com que são trocadas, o sentido e o envolvimento dos departamentos dos agentes da cadeia. Pode-se acrescentar ainda, que em transações com arroz orgânico houve maior diálogo entre os agentes ao longo da cadeia, que foi mais representativo no segmento Produção x Beneficiamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima o efeito das Interações Sociais no desempenho dos estudantes no Brasil, a partir dos dados do SAEB 2005. Os resultados apontam que Peer Effects explicam uma parte importante da proficiência observada no exame de Matemática. Além disto, encontramos evidências de que este efeito é concentrado nos alunos no topo da distribuição de habilidade, o que sugere que políticas de ability tracking podem ser ótimas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigação foi realizada através de dois estudos. O Estudo 1 teve por objetivo adaptar as tarefas que compõem a Bateria MEC ao Português Brasileiro (PB). O Estudo 2 visou verificar a influência do envelhecimento nas habilidades lingüísticas verbais e não-verbais de grande ativação do hemisfério direito (HD), testadas neste teste neuropsicológico. Para a adaptação da Bateria MEC, no primeiro estudo, três procedimentos gerais foram promovidos: tradução, análise de critérios lingüísticos por juízes e aplicação do instrumento em um estudo piloto. As tarefas intituladas Compreensão de metáforas, Discurso narrativo e Julgamento semântico exigiram um processo de adaptação mais complexo e rigoroso do que as outras provas. Com base em critérios psicolingüísticos, realizaram-se algumas mudanças nos estímulos. Participaram do segundo estudo 40 adultos jovens e 40 idosos, de ambos os sexos, com escolaridade superior a oito anos de estudo, sem relato de quaisquer patologias sensoriais, neurológicas ou psiquiátricas. Quatro instrumentos foram utilizados: Questionário de dados sócio-culturais e aspectos da saúde, Mini-mental, Escala de depressão geriátrica Yesavage e a Bateria MEC, já adaptada. Os três primeiros caracterizaram a amostra e possibilitaram a observação dos critérios de inclusão. O último examinou habilidades de compreensão de metáforas, evocação lexical, prosódias lingüística e emocional, atos de fala indiretos e julgamento semântico. Os idosos apresentaram um desempenho inferior ao dos jovens em todas estas tarefas, com exceção da prosódia lingüística – repetição, dos atos de fala indiretos e do julgamento semântico. A maior dificuldade de processamento comunicativo observada nos idosos não representou um déficit lingüístico, mas sim um efeito de idade no seu estilo cognitivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O discurso dos indivíduos com Doença de Alzheimer (DA) é descrito como desorganizado e vazio, apresentando um grande número de termos indefinidos e frases sem significado (Obler, Albert & Helm-Estabrooks, 1985). Além disso, estudos apontam a ausência de elementos importantes para a compreensão do discurso pelo interlocutor (Ripich & Terrel, 1988). Essas características discursivas refletem uma dificuldade evidente na produção do discurso, especialmente nos níveis pragmáticos e semânticos do processamento. O objetivo desta pesquisa foi investigar a coerência e os déficits no manejo do conhecimento de pessoas com DA em três tarefas de discurso, comparando as relações dessas características com habilidades cognitivas. Participaram do estudo 8 idosos com DA no estágio GDS 4, 10 com DA no estágio GDS 5 e 16 idosos do grupo controle sem DA. Os discursos foram analisados a partir de uma tarefa sem pistas informativas, uma tarefa com pistas informativas e uma tarefa com pistas visuais Os participantes foram avaliados com testes neuropsicológicos relacionados à compreensão verbal, memória semântica, memória episódica e memória de trabalho. Os resultados demonstraram que participantes com DA apresentaram escores de coerência global mais baixos do que idosos sem D.A. Idosos com DA também apresentaram maiores dificuldades de manejo do conhecimento do que idosos normais. As características discursivas de participantes com DA correlacionaram-se com suas habilidades cognitivas. Os grupos GDS 4 e GDS 5 diferiram com relação à coerência local (na tarefa com pistas visuais) e ao déficit no manejo do conhecimento (na tarefa com pistas informativas). Os desempenhos discursivos dos participantes com DA diferiram significativamente entre as tarefas autobiográficas e a tarefa com pistas visuais. Esses dados podem contribuir para ampliar e aprofundar os métodos de detecção precoce, avaliação e intervenção das desordens discursivas de pessoas com DA.