174 resultados para Catalogação - Processamento de dados
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
A globalização da economia e a abertura de mercados têm trazido grandes desafios para a fruticultura brasileira como forma de buscar vantagens competitivas sustentáveis na manutenção e ampliação de seus mercados. Dentro desse contexto, a produção de morango, na região Sul do nosso Estado, especialmente nos municípios de Pelotas, São Lourenço e Turuçu, onde o mesmo é produzido por, aproximadamente, 1.027 produtores e é considerado como uma matéria-prima importante pelas indústrias da região, não tem apresentado um desenvolvimento econômico e tecnológico adequado, comparativamente às outras regiões do Estado. Para um melhor entendimento dos problemas existentes, tanto no fornecimento dos insumos agrícolas, como na produção agrícola e processamento da fruta, este estudo teve como objetivos a caracterização e análise da cadeia produtiva do morango nesses municípios, identificando, descrevendo e caracterizando os agentes que a compõem, as suas relações, modos de organização, os gargalos e oportunidades de mudanças. Baseado nos dados secundários disponíveis e nas informações levantadas em entrevistas realizadas com representantes-chave dos diferentes agentes que compõem os segmentos e ambientes dessa cadeia produtiva, ficou evidenciada a existência de grandes gargalos relacionados à eficiência e competitividade da mesma, presentes em todos esses segmentos. Podem-se destacar, como mais significativos, a falta de padrões de qualidade e de assistência técnica para os produtores da região, a cultura predominante caracterizada por pouca motivação empresarial, muita passividade, acomodação e individualismo. No segmento de produção de morango, existem entraves estruturais que comprometem o fornecimento de frutas com os padrões de qualidade necessários. Contribuem para isso, a não disponibilidade de mudas de qualidade e alta sanidade, as deficientes técnicas empregadas no manejo da cultura, na colheita e pós-colheita da fruta e a falta de infraestrutura de resfriamento e transporte adequada após a colheita. Por sua vez, o segmento de processamento de morango apresenta como principais gargalos o nível tecnológico do processo e dos equipamentos utilizados, os aspectos de gestão do negócio e as relações de mercado. Entretanto, foram identificados, como pontos fortes, a existência de um número significativo de instituições de apoio, as condições climáticas e a disponibilidade da matéria-prima. Portanto, é premente a inserção dessa cadeia produtiva no novo contexto econômico, através de mecanismos eficientes e menos traumáticos possíveis.
Resumo:
Existe uma certa gama de aplicações que não pode ser implementada através do modelo convencional de transações, são aplicações que tem um tempo de duração mais longo do que aquelas convencionalmente modeladas. Em uma transação Atômica, ou todo o trabalho é realizado por completo ou nada é feito, mas, quando se trata de atividades de longa duração, isto pode significar a perda de trabalho executado durante horas ou, até mesmo, dias. Pelo mesmo motivo, transações longas não devem executar isoladamente, porque isto impede que outras transações tenham acesso aos dados sendo manipulados. No âmbito do projeto TRANSCOOP, vêm sendo realizados vários estudos sobre modelos de transações não convencionais. Dentre eles, encontra-se o Modelo de Contratos, que prevê um mecanismo de controle seguro para gerenciar aplicações distribuídas que apresentam atividades de longa duração. Para experimentar e avaliar as idéias inseridas neste modelo está sendo desenvolvido um protótipo. Este sistema é provido de uma interface gráfica interativa, baseada em Manipulação Direta, e suporta a definição de transações longas de banco de dados de acordo com o Modelo de Contratos. O objetivo deste trabalho é descrever a arquitetura de um protótipo para o Modelo de Contratos, definindo a função de cada um de seus módulos, mais especificamente o módulo Interface, e a comunicação entre eles. Para a definição de uma interface adequada foram considerados aspectos de outras áreas da ciência, pois a área de interfaces homemmáquina é multidisciplinar.
Resumo:
O final da Glaciação Neopaleozóica está representado hoje no registro sedimentar da Bacia do Paraná pelas rochas do Grupo Itararé. No Estado do Rio Grande do Sul e no sudeste do Estado de Santa Catarina seus depósitos possuem idade eopermiana, datados desde o Asseliano até o Artinskiano. A partir de dados de testemunhos e de perfis de raios gama de dois poços, um em Santa Catarina (7-RL-04- SC) e outro no Rio Grande do Sul (IB-93-RS), perfurados para pesquisa de carvão pela CPRM (Companhia de Pesquisa de Recursos Minerais), foram feitas análises cicloestratigráficas com o intuito de determinar a existência e a natureza da possível ciclicidade induzida por fenômenos astronômicos presente nesses sedimentos glaciais (basicamente folhelhos e ritmitos). A distância entre as locações originais dos poços (cerca de 380 km) possibilitou testar a influência da indução astronômica em localidades distintas da bacia. Dois métodos de amostragem foram utilizados no estudo, de acordo com a escala dos dados e com a possível indução: os perfis de raios gama (191 m para o 7-RL-04-SC e 71 m para o IB-93-RS) foram digitalizados e amostrados em intervalos de 1 cm, com o intuito de testar a presença de indução pelos ciclos orbitais na escala de 20 mil a 400 mil anos, ou outros fenômenos indutores na escala de 3 mil a 10 mil anos, e os testemunhos foram escaneados nos intervalos com ritmitos, (1,2 m para o 7-RL-04-SC e 38 cm para o IB-93-RS) e transformados em dados em escala de cinza equiespaçados (0,2538 mm), objetivando a busca por ciclos anuais a milenares A análise harmônica pela transformada rápida de Fourier demonstrou a presença de ciclicidade em ambas as escalas: ciclos orbitais, com períodos de cerca de 17 mil a 100 mil anos, foram caracterizados em perfil e ciclos solares, com períodos de cerca de 22 a 1000 anos, foram evidenciados nos testemunhos. Os tempos de acumulação calculados para o poço 7-RL-04-SC nas duas escalas mostraram um alto grau de correlação (cerca de 9400 anos para o intervalo escaneado e aproximadamente 12600 para o mesmo intervalo nos dados do perfil), comprovando a eficiência dos métodos de obtenção dos dados e a utilidade da cicloestratigrafia como ferramenta de análise e refinamento cronoestratigráfico. Quanto às espessas seções de ritmitos, características do Grupo Itararé e presentes nos testemunhos, estas têm sido freqüentemente denominadas de varvitos ou referenciadas como semelhantes a varvitos na literatura. Porém os resultados mostraram que cada par de ritmitos foi depositado em períodos de vinte e dois anos, relacionados aos ciclos solares de Hale. A análise permitiu ainda o estudo das relações existentes entre várias variáveis, como a taxa e o tempo de acumulação, e a definição, na seção do poço 7-RL-04-SC, de seqüências deposicionais de terceira e de quarta ordem. Essas últimas são associadas à indução pelos ciclos orbitais de excentricidade e comparáveis aos períodos glaciais do Pleistoceno, sendo que as taxas de acumulação calculadas para os dados do poço, variando entre 5,2 a 9,3 cm/ka, são muito similares às taxas de acumulação do Pleistoceno. A análise também mostrou que a seção completa do Grupo Itararé no poço IB-93-RS corresponde apenas à cerca de meio ciclo de precessão (12342 anos). Como os dois fenômenos de indução astronômica detectados, os ciclos solares e os orbitais, afetam o clima de maneira global, certamente influenciaram a sedimentação em outros pontos da bacia.
Resumo:
Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
O abscesso de pulmão continua sendo hoje, em plena era dos antibióticos, um importante problema médico. O presente trabalho se propõe mostrar aspectos diagnósticos e terapêuticos da doença em uma série de pacientes coletada nos últimos 34 anos em um hospital universitário especializado em doenças pulmonares. No período de 1968 a 2002 foram reunidos e estudados 241 casos de abscesso pulmonar de aspiração - 199 em homens e 42 em mulheres, com média de idade de 41,3 anos. Em 69,0% dos pacientes esteve presente a ingestão de álcool e em 64,0% o hábito tabágico. Tosse, expectoração, febre e comprometimento do estado geral foram os achados clínicos mais freqüentes, encontrados na quase totalidade dos casos; 62,5% tinham dor torácica e 30,0% hipocratismo digital. Verificaram-se dentes em mau estado de conservação em 81,7 % dos pacientes, episódio de perda de consciência em 78,0% e presença de odor fétido em 66,0%. Em 85,5% das vezes as lesões localizaram-se em segmento posterior de lobo superior ou segmento superior de lobo inferior, 97,1% delas unilaterais, ocorrendo com igual freqüência tanto no pulmão direito como no esquerdo. A maioria das lesões (66,0%) mediram entre 4,0 e 8,0 cm de diâmetro. Em 25 pacientes (10,4%) houve a associação de empiema pleural. Flora mista, indicativa da presença de germes anaeróbios, foi identificada em secreções broncopulmonares ou pleurais em 172 pacientes (71,4 %). Estreptococos e Gram negativos aeróbios foram também algumas vezes encontrados. Todos os pacientes foram inicialmente tratados com antibióticos (penicilina em 78,0% das vezes) e submetidos a sessões de drenagem postural. Em 51 (21,2%) acabou sendo necessário algum procedimento cirúrgico (24 drenagens de empiema, 21 ressecções pulmonares e 6 pneumostomias). Cura foi obtida em 231 pacientes (95,8%) e 10 (4,2%) foram ao óbito, estes em geral com grandes abscessos, três dos quais também com empiema.
Resumo:
Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.
Resumo:
A leitura e a escrita são atividades mentais extremamente complexas, compostas por múltiplos processos interdependentes e que envolvem outras funções neuropsicológicas. Esta pesquisa é composta por quatro estudos, visando traçar o perfil de leitura e escrita de palavras e de texto de 110 crianças de 2ª série de escolas públicas (Estudo 1); relacionar o julgamento do professor e as habilidades de leitura e escrita dos alunos (Estudo 2); comparar o perfil de leitura e escrita e de funções neuropsicológicas de crianças de 2ª série com dificuldades de leitura e escrita e de crianças leitoras e escritoras competentes, de mesma idade e de mesmo desempenho em leitura e escrita (Estudo 3); e analisar a variabilidade intra-grupos nas habilidades de leitura e escrita e nas funções neuropsicológicas, na busca de dissociações entre as rotas de leitura e de escrita e entre funções neuropsicológicas (Estudo 4). O primeiro estudo mostrou que, na 2ª série, houve indícios de uso de ambas as rotas de leitura e escrita, mas maior tendência à estratégia fonológica. Foram encontradas correlações significativas entre as habilidades de processamento de palavras e de texto. No segundo estudo foram encontradas correlações moderadas entre o desempenho dos alunos em leitura e escrita e a percepção do professor sobre estas habilidades. O terceiro estudo mostrou que o grupo de 2ª série com dificuldades de leitura e escrita usava de forma imprecisa ambas as rotas de leitura e escrita. Este grupo apresentou escores estatisticamente inferiores aos do grupo de 2ª série competente em leitura e escrita em consciência fonológica, linguagem oral e repetição de pseudopalavras, não diferindo significativamente do grupo de 1ª série. Os perfis semelhantes dos grupos de 2ª série com dificuldade de leitura e escrita e de 1ª série sugerem que os primeiros apresentam atraso de desenvolvimento da leitura e escrita e de funções neuropsicológicas relacionadas. Os estudos de casos, analisados no Estudo 4, mostraram padrões de leitura e escrita semelhantes à dislexia de desenvolvimento fonológica, dislexia de superfície e de dislexia mista. O perfil neuropsicológico também apresentou variabilidade intra-grupo. Os dados são discutidos em uma abordagem neuropsicológica cognitiva.