162 resultados para Jabuticaba - Processamento
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
A globalização da economia e a abertura de mercados têm trazido grandes desafios para a fruticultura brasileira como forma de buscar vantagens competitivas sustentáveis na manutenção e ampliação de seus mercados. Dentro desse contexto, a produção de morango, na região Sul do nosso Estado, especialmente nos municípios de Pelotas, São Lourenço e Turuçu, onde o mesmo é produzido por, aproximadamente, 1.027 produtores e é considerado como uma matéria-prima importante pelas indústrias da região, não tem apresentado um desenvolvimento econômico e tecnológico adequado, comparativamente às outras regiões do Estado. Para um melhor entendimento dos problemas existentes, tanto no fornecimento dos insumos agrícolas, como na produção agrícola e processamento da fruta, este estudo teve como objetivos a caracterização e análise da cadeia produtiva do morango nesses municípios, identificando, descrevendo e caracterizando os agentes que a compõem, as suas relações, modos de organização, os gargalos e oportunidades de mudanças. Baseado nos dados secundários disponíveis e nas informações levantadas em entrevistas realizadas com representantes-chave dos diferentes agentes que compõem os segmentos e ambientes dessa cadeia produtiva, ficou evidenciada a existência de grandes gargalos relacionados à eficiência e competitividade da mesma, presentes em todos esses segmentos. Podem-se destacar, como mais significativos, a falta de padrões de qualidade e de assistência técnica para os produtores da região, a cultura predominante caracterizada por pouca motivação empresarial, muita passividade, acomodação e individualismo. No segmento de produção de morango, existem entraves estruturais que comprometem o fornecimento de frutas com os padrões de qualidade necessários. Contribuem para isso, a não disponibilidade de mudas de qualidade e alta sanidade, as deficientes técnicas empregadas no manejo da cultura, na colheita e pós-colheita da fruta e a falta de infraestrutura de resfriamento e transporte adequada após a colheita. Por sua vez, o segmento de processamento de morango apresenta como principais gargalos o nível tecnológico do processo e dos equipamentos utilizados, os aspectos de gestão do negócio e as relações de mercado. Entretanto, foram identificados, como pontos fortes, a existência de um número significativo de instituições de apoio, as condições climáticas e a disponibilidade da matéria-prima. Portanto, é premente a inserção dessa cadeia produtiva no novo contexto econômico, através de mecanismos eficientes e menos traumáticos possíveis.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.
Resumo:
Este trabalho apresenta as etapas para planejamento e implementação (implantação, suporte e manutenção) de uma infra-estrutura de educação a distancia realizado pela PROCERGS – Cia de Processamento de Dados do Estado do Rio Grande do Sul. A infra-estrutura de EAD implantada pela PROCERGS foi aplicada através de um curso para 12 turmas de alunos da SE (Secretaria de Educação do Estado do Rio Grande do Sul), que é uma entidade educacional referenciada pelo programa de inclusão digital do Governo do Estado do RS. A infra-estrutura de EAD utilizou as instalações da PROCERGS para testes do curso, onde foi constituída uma equipe de trabalho, formado por um consultor em informática na educação, técnicos do corpo funcional da PROCERGS e funcionários do cliente. A infraestrutura de EAD foi composta por uma rede local montada no centro de treinamento da PROCERGS, disponibilizado com software de EAD denominado Teleduc e acesso a internet, que possibilitou aos alunos, professor e monitor, um relacionamento através de aulas presenciais e via internet. A continuidade das aulas pela internet foi apoiada pelos serviços de help-desk da PROCERGS, 24 horas ao dia e sete dias na semana. Durante o curso foram registradas ocorrências relativas ao desempenho da infraestrutura de EAD, especificamente quanto à participação dos alunos, trocas de informações e consultas ao monitor e professor, apoio dos recursos de software, hardware e comunicações, bem como a qualidade do atendimento aos alunos. Esta implementação proporcionou conhecer e avaliar alguns resultados, tais como fatores negativos e sucesso, itens a serem melhorados, conhecimentos relevantes adquiridos e importantes considerando a continuidade destes trabalhos para utilização nos demais clientes do Estado.
Resumo:
Esta dissertação consiste no estudo das condições de trabalho e proposta de melhorias da Divisão de Usinagem da empresa John Deere, unidade de Horizontina, RS. A Divisão é responsável pelo processamento de peças de aço e ferro fundido, componentes de plantadeiras, colheitadeiras e tratores. O trabalho, inicialmente concebido dentro do sistema taylorista-fordista de produção, envolve esforço fisico, principalmente estático, durante operações em diversas máquinas ferramentas (tomos, fresas, furadeiras etc). A partir de 2000, com a instalação do Comitê de Ergonomia (COERGO) da empresa e a utilização da abordagem participativa da Análise Macroergonômica de Trabalho (AMT), proposta por Guimarães (1999), foram identificadas, priorizadas e quantificadas, por meio de questionário não obrigatório, respondido por quase a totalidade da Divisão, as demandas ergonômicas para melhoria das condições de trabalho. Ao final de, aproximadamente, dois anos e meio, foram reavaliadas, por meio de um segundo questionário, as modificações feitas no ambiente (instalação de ventiladores; redução de aerodispersóides pela substituição de produtos químicos; redução de ruído e melhoria de iluminação), em postos de de trabalho (modificação do leiaute, instalação de dispositivos de manuseio e movimentação de carga; redesenho de bancadas e dos locais de armazenamento de materiais); e na organização do trabalho da Divisão (alargamento e enriquecimento do trabalho pela celularização do trabalho) De um modo geral, houve um aumento da satisfação dos funcionários com todas as modificações efetuadas, à exceção daquelas que sofreram apenas intervenção parcial (por exemplo, o sistema de ventilação). As melhorias repercutiram não só no aumento de satisfação, bem como, na postura dos trabalhadores com relação ao seu trabalho (pois se mostraram mais críticos e exigentes em função da participação no processo de melhorias) bem como redução de índices de sucata e retrabalho na Divisão, evidenciando que é possível atender as exigências impostas por um mercado competitivo e globalizado, sem que haja prejuízo dos fatores humanos envolvidos nesse processo de produção.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
Resumo:
Neste trabalho apresenta-se um algoritmo para a simulação de problemas tridimensionais de interação fluido-estrutura utilizando a técnica de elementos finitos. Um esquema de Taylor-Galerkin de dois passos e elementos tetraédricos lineares são empregados para o fluido, que pode ser compressível ou incompressível. É adotada uma formulação lagrangeana-euleriana arbitrária (ALE), compatível com o movimento da interface fluidoestrutura. Um método ftacionado de correção de velocidade é utilizado para os fluidos incompressíveis. A estrutura é analisada usando elementos triangulares com três nós e seis graus de liberdade por nó (três componentes de deslocamentos e três componentes de rotação). Os efeitos da não-linearidade geométrica são incluídos. O método de Newmark é empregado para integrar no tempo as equações dinâmicas de equilíbrio, usando-se uma descrição lagrangeana atualizada. O sistema de equações alge'bricas é solucionado através do método dos gradientes conjugados e o sistema não-linear, resultante de deslocamentos e rotacões finitas da estrutura, é solucionado com um esquema incremental-iterativo. O código é otimizado para aproveitar as vantagens do processamento vetorial.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
Este trabalho avalia o efeito da adição de diferentes resíduos, todos de baixa granulometria e gerados não muito distantes de empresas fabricantes de produtos de cerâmica vermelha, quando incorporados a argilas para processamento cerâmico tradicional. Foram utilizadas argilas da região de Sangão e Forquilhinha (Santa Catarina), bem como os seguintes resíduos: resíduo siderúrgico da produção de aço em forno elétrico (pó de aciaria), resíduo de atomizador de uma indústria de revestimentos cerâmicos e resíduo do polimento de grês porcelanato. Após a caracterização das matérias-primas, foram formuladas massas cerâmicas na relação argila/resíduo de 5:1 para cada resíduo. E, como padrão de comparação, utilizou-se a formulação apenas com argilas. As massas cerâmicas foram conformadas por prensagem e submetidas à queima em forno elétrico tipo mufla nas seguintes temperaturas 800, 900, 950, 1000 e 1100oC. Os corpos cerâmicos assim obtidos foram caracterizados segundo suas propriedades físicas (retração linear e absorção de água – curva de gresificação) e mecânicas (resistência mecânica à flexão a quatro pontos). Além disso, os corpos cerâmicos fabricados, utilizando pó de aciaria (resíduo perigoso segundo a ABNT), foram avaliados segundo as normas NBR 10005 e NBR 10006, quanto ao seu aspecto ambiental. Os resultados mostraram a viabilidade do uso destes resíduos na fabricação de produtos cerâmicos. As propriedades finais e a cor de queima (entre marrom claro e marrom escuro) variaram de acordo com a natureza do resíduo e temperatura de queima. A formulação testada com pó de atomizador de industria cerâmica apresentou em todas as temperaturas ensaiadas os maiores incrementos de resistência mecânica em relação às formulações testadas, sendo que à temperatura de 1100oC, a formulação com pó de aciaria apresentou desempenho similar, porém com menor absorção de água e maior retração linear. Nestas condições, os corpos cerâmicos com pó de aciaria mostraram-se inertes quanto ao aspecto ambiental de acordo com as normas Brasileiras.
Resumo:
Este trabalho apresenta o estudo da obtenção de alumina (óxido de alumínio – Al2O3) pelo método sol-gel coloidal e a caracterização da morfologia dos produtos obtidos, associando-a a parâmetros processuais como pH, tipo de solvente empregado e condições de secagem. Utilizou-se como precursor cloreto de alumínio hexahidratado que, após reações de pectização, levou à formação de um gel viscoso com características amorfas. Este gel, após calcinação, deu origem a diferentes fases de alumina e, apresentou diferentes morfologias: pós, fibras ou corpos cerâmicos porosos, que variaram de acordo com os parâmetros processuais adotados. A fim de se avaliar o comportamento do gel frente às diferentes condições de pH, variou-se o pH do sistema utilizando-se ácido acético glacial para ajustes de pH na faixa ácida e, para o ajuste de pH na faixa básica, uma solução aquosa 30% de amônio. Ambos foram escolhidos para o ajuste de pH por não interferirem no processo de síntese da alumina e, por serem facilmente eliminados com tratamentos térmicos. Na etapa de pectização do gel, foram adicionados diferentes solventes, água, álcool ou uma mistura 1:1 de ambos, a fim de se avaliar a sua influência sob o tempo de secagem e distribuição de tamanho de partículas. O gel foi então seco de acordo com as seguintes metodologias de secagem: secagem do gel em estufa a 110°C por 12 horas, secagem do gel em ambiente aberto, com temperatura variando entre 25 e 30°C, pré-evaporação do solvente sob aquecimento (70 a 80°C) e agitação. Os produtos obtidos seguindo esta metodologia foram caracterizados quanto à distribuição granulométrica, análises térmicas (TGA e DTA), difração de raios X, área superficial, densidade real e morfologia (usando microscopia ótica e de varredura).
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
A leitura e a escrita são atividades mentais extremamente complexas, compostas por múltiplos processos interdependentes e que envolvem outras funções neuropsicológicas. Esta pesquisa é composta por quatro estudos, visando traçar o perfil de leitura e escrita de palavras e de texto de 110 crianças de 2ª série de escolas públicas (Estudo 1); relacionar o julgamento do professor e as habilidades de leitura e escrita dos alunos (Estudo 2); comparar o perfil de leitura e escrita e de funções neuropsicológicas de crianças de 2ª série com dificuldades de leitura e escrita e de crianças leitoras e escritoras competentes, de mesma idade e de mesmo desempenho em leitura e escrita (Estudo 3); e analisar a variabilidade intra-grupos nas habilidades de leitura e escrita e nas funções neuropsicológicas, na busca de dissociações entre as rotas de leitura e de escrita e entre funções neuropsicológicas (Estudo 4). O primeiro estudo mostrou que, na 2ª série, houve indícios de uso de ambas as rotas de leitura e escrita, mas maior tendência à estratégia fonológica. Foram encontradas correlações significativas entre as habilidades de processamento de palavras e de texto. No segundo estudo foram encontradas correlações moderadas entre o desempenho dos alunos em leitura e escrita e a percepção do professor sobre estas habilidades. O terceiro estudo mostrou que o grupo de 2ª série com dificuldades de leitura e escrita usava de forma imprecisa ambas as rotas de leitura e escrita. Este grupo apresentou escores estatisticamente inferiores aos do grupo de 2ª série competente em leitura e escrita em consciência fonológica, linguagem oral e repetição de pseudopalavras, não diferindo significativamente do grupo de 1ª série. Os perfis semelhantes dos grupos de 2ª série com dificuldade de leitura e escrita e de 1ª série sugerem que os primeiros apresentam atraso de desenvolvimento da leitura e escrita e de funções neuropsicológicas relacionadas. Os estudos de casos, analisados no Estudo 4, mostraram padrões de leitura e escrita semelhantes à dislexia de desenvolvimento fonológica, dislexia de superfície e de dislexia mista. O perfil neuropsicológico também apresentou variabilidade intra-grupo. Os dados são discutidos em uma abordagem neuropsicológica cognitiva.