921 resultados para Jabuticaba - Processamento
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
Resumo:
Neste trabalho apresenta-se um algoritmo para a simulação de problemas tridimensionais de interação fluido-estrutura utilizando a técnica de elementos finitos. Um esquema de Taylor-Galerkin de dois passos e elementos tetraédricos lineares são empregados para o fluido, que pode ser compressível ou incompressível. É adotada uma formulação lagrangeana-euleriana arbitrária (ALE), compatível com o movimento da interface fluidoestrutura. Um método ftacionado de correção de velocidade é utilizado para os fluidos incompressíveis. A estrutura é analisada usando elementos triangulares com três nós e seis graus de liberdade por nó (três componentes de deslocamentos e três componentes de rotação). Os efeitos da não-linearidade geométrica são incluídos. O método de Newmark é empregado para integrar no tempo as equações dinâmicas de equilíbrio, usando-se uma descrição lagrangeana atualizada. O sistema de equações alge'bricas é solucionado através do método dos gradientes conjugados e o sistema não-linear, resultante de deslocamentos e rotacões finitas da estrutura, é solucionado com um esquema incremental-iterativo. O código é otimizado para aproveitar as vantagens do processamento vetorial.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
Este trabalho avalia o efeito da adição de diferentes resíduos, todos de baixa granulometria e gerados não muito distantes de empresas fabricantes de produtos de cerâmica vermelha, quando incorporados a argilas para processamento cerâmico tradicional. Foram utilizadas argilas da região de Sangão e Forquilhinha (Santa Catarina), bem como os seguintes resíduos: resíduo siderúrgico da produção de aço em forno elétrico (pó de aciaria), resíduo de atomizador de uma indústria de revestimentos cerâmicos e resíduo do polimento de grês porcelanato. Após a caracterização das matérias-primas, foram formuladas massas cerâmicas na relação argila/resíduo de 5:1 para cada resíduo. E, como padrão de comparação, utilizou-se a formulação apenas com argilas. As massas cerâmicas foram conformadas por prensagem e submetidas à queima em forno elétrico tipo mufla nas seguintes temperaturas 800, 900, 950, 1000 e 1100oC. Os corpos cerâmicos assim obtidos foram caracterizados segundo suas propriedades físicas (retração linear e absorção de água – curva de gresificação) e mecânicas (resistência mecânica à flexão a quatro pontos). Além disso, os corpos cerâmicos fabricados, utilizando pó de aciaria (resíduo perigoso segundo a ABNT), foram avaliados segundo as normas NBR 10005 e NBR 10006, quanto ao seu aspecto ambiental. Os resultados mostraram a viabilidade do uso destes resíduos na fabricação de produtos cerâmicos. As propriedades finais e a cor de queima (entre marrom claro e marrom escuro) variaram de acordo com a natureza do resíduo e temperatura de queima. A formulação testada com pó de atomizador de industria cerâmica apresentou em todas as temperaturas ensaiadas os maiores incrementos de resistência mecânica em relação às formulações testadas, sendo que à temperatura de 1100oC, a formulação com pó de aciaria apresentou desempenho similar, porém com menor absorção de água e maior retração linear. Nestas condições, os corpos cerâmicos com pó de aciaria mostraram-se inertes quanto ao aspecto ambiental de acordo com as normas Brasileiras.
Resumo:
Este trabalho apresenta o estudo da obtenção de alumina (óxido de alumínio – Al2O3) pelo método sol-gel coloidal e a caracterização da morfologia dos produtos obtidos, associando-a a parâmetros processuais como pH, tipo de solvente empregado e condições de secagem. Utilizou-se como precursor cloreto de alumínio hexahidratado que, após reações de pectização, levou à formação de um gel viscoso com características amorfas. Este gel, após calcinação, deu origem a diferentes fases de alumina e, apresentou diferentes morfologias: pós, fibras ou corpos cerâmicos porosos, que variaram de acordo com os parâmetros processuais adotados. A fim de se avaliar o comportamento do gel frente às diferentes condições de pH, variou-se o pH do sistema utilizando-se ácido acético glacial para ajustes de pH na faixa ácida e, para o ajuste de pH na faixa básica, uma solução aquosa 30% de amônio. Ambos foram escolhidos para o ajuste de pH por não interferirem no processo de síntese da alumina e, por serem facilmente eliminados com tratamentos térmicos. Na etapa de pectização do gel, foram adicionados diferentes solventes, água, álcool ou uma mistura 1:1 de ambos, a fim de se avaliar a sua influência sob o tempo de secagem e distribuição de tamanho de partículas. O gel foi então seco de acordo com as seguintes metodologias de secagem: secagem do gel em estufa a 110°C por 12 horas, secagem do gel em ambiente aberto, com temperatura variando entre 25 e 30°C, pré-evaporação do solvente sob aquecimento (70 a 80°C) e agitação. Os produtos obtidos seguindo esta metodologia foram caracterizados quanto à distribuição granulométrica, análises térmicas (TGA e DTA), difração de raios X, área superficial, densidade real e morfologia (usando microscopia ótica e de varredura).
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
A leitura e a escrita são atividades mentais extremamente complexas, compostas por múltiplos processos interdependentes e que envolvem outras funções neuropsicológicas. Esta pesquisa é composta por quatro estudos, visando traçar o perfil de leitura e escrita de palavras e de texto de 110 crianças de 2ª série de escolas públicas (Estudo 1); relacionar o julgamento do professor e as habilidades de leitura e escrita dos alunos (Estudo 2); comparar o perfil de leitura e escrita e de funções neuropsicológicas de crianças de 2ª série com dificuldades de leitura e escrita e de crianças leitoras e escritoras competentes, de mesma idade e de mesmo desempenho em leitura e escrita (Estudo 3); e analisar a variabilidade intra-grupos nas habilidades de leitura e escrita e nas funções neuropsicológicas, na busca de dissociações entre as rotas de leitura e de escrita e entre funções neuropsicológicas (Estudo 4). O primeiro estudo mostrou que, na 2ª série, houve indícios de uso de ambas as rotas de leitura e escrita, mas maior tendência à estratégia fonológica. Foram encontradas correlações significativas entre as habilidades de processamento de palavras e de texto. No segundo estudo foram encontradas correlações moderadas entre o desempenho dos alunos em leitura e escrita e a percepção do professor sobre estas habilidades. O terceiro estudo mostrou que o grupo de 2ª série com dificuldades de leitura e escrita usava de forma imprecisa ambas as rotas de leitura e escrita. Este grupo apresentou escores estatisticamente inferiores aos do grupo de 2ª série competente em leitura e escrita em consciência fonológica, linguagem oral e repetição de pseudopalavras, não diferindo significativamente do grupo de 1ª série. Os perfis semelhantes dos grupos de 2ª série com dificuldade de leitura e escrita e de 1ª série sugerem que os primeiros apresentam atraso de desenvolvimento da leitura e escrita e de funções neuropsicológicas relacionadas. Os estudos de casos, analisados no Estudo 4, mostraram padrões de leitura e escrita semelhantes à dislexia de desenvolvimento fonológica, dislexia de superfície e de dislexia mista. O perfil neuropsicológico também apresentou variabilidade intra-grupo. Os dados são discutidos em uma abordagem neuropsicológica cognitiva.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.
Resumo:
This thesis is about change, discontinuity, instability. The theoretical perspective used to analyses the changing process was Institutional Theory, which argues that institutions has a long-term time. The institutional change has always be seen as a structural process and a incremental one, but this research aimed rescue the dynamic side of institutional change, understanding that as a result of deinstitutionalization and institutionalization processes. In order to understand the deinstitutionalization and institutionalization processes, we try to understand the concepts of interactive and iterative. So, it was possible understand that these process are interdependent and has to be understood as both side of institutional change. Nevertheless, it couldn¿t have an institutional vacuum, but a hybrid order or plural one, where a set of institutional forces would find its legitimacy. The Discourses Analysis supports this research, which was developed in Peru. A group of University professors was interviewed and we noticed that there are a lot of practices that act as micro institutional rules. In that way, we can admit that there is no vacuum, but a plural institutional order.
Resumo:
O ESTUDO OBJETIVOU VERIFICAR OS IMPACTOS DA IMPLANTAÇÃO DO SISTEMA DE INFORMAÇÕES SOBRE O PROCESSO DECISÓRIO ESTRATÉGICO DO SERPRO - SERVIÇO FEDERAL DE PROCESSAMENTO DE DADOS. CONSIDERA-SE QUE AS ENTREVISTAS REALIZADAS COM A DIRETORIA, BEM COMO OS RESULTADOS DA PESQUISA APLICADA AOS SUPERINTENDENTES E COORDENADORES DA UNIDADE DE PROCESSOS CORPORATIVOS DA REFERIDA EMPRESA, SE CONSTITUIREM NOS SUPORTES DE ARGUMENTAÇÃO DESTE TRABALHO. FORAM TAMBÉM ANALISADOS OS DOCUMENTOS OFICIAIS DA ORGANIZAÇÃO E REALIZADAS ENTREVISTAS COM ANTIGOS ADMINISTRADORES. OS RESULTADOS MOSTRAM QUE OS MAIORES IMPACTOS DA IMPLANTAÇÃO NA ORGANIZAÇÃO FORAM O DESVELAMENTO DO PROCESSO DECISÓRIO ESTRATÉGICO, A AGILIZAÇÃO DESSAS DECISÕES ESTRATÉGICAS E UMA POTENCIALIZAÇÃO DO USO DOS DIVERSOS SISTEMAS DE INFORMAÇÕES POR PARTE DE TODOS OS USUÁRIOS DO SISTEMA DE INFORMAÇÃO PARA O PROCESSO DECISÓRIO.
Resumo:
Este trabalho teve como objetivo principal investigar o processo de imobilização do íon cromo, oriundo da cinza de incineração da serragem de couro curtido ao cromo (CSC), em corpos cerâmicos vitrificados. Para tanto, foram desenvolvidas formulações com adição de vidro sodocálcico a CSC, que foram submetidas a diferentes temperaturas de queima. Para o aprofundamento da investigação dos fenômenos atuantes no processo de imobilização do íon cromo, foram formuladas massas cerâmicas com a adição de óxidos puros de Na2O, TiO2, MgO e CaO, à composição CSC e vidro sodo-cálcido. As massas cerâmicas foram conformadas por prensagem uni-axial de duplo efeito e queimadas em forno elétrico tipo mufla, nas temperaturas de 750, 800, 950 e 1000ºC. Posteriormente, foram caracterizadas quanto às propriedades físicas e composição mineralógica, bem como, avaliadas quanto à imobilização do cromo através de ensaios de lixiviação, segundo a Norma NBR 10.005. O controle de fases formadas resultante do processamento cerâmico foi investigado com o auxílio de difração de raios X e mapeamento por microssonda EDS. Os resultados obtidos indicam que é possível obter a imobilização do íon cromo da CSC, de acordo com o limite máximo estabelecido pela NBR 10.004 (5mg/L), utilizando vidro e agentes de vitrificação/densificação, como o óxido de titânio e óxido de magnésio. Quanto mais elevada a temperatura de queima, mais efetiva foi a imobilização de cromo nos corpos cerâmicos investigados. O aumento da temperatura de queima diminui a porosidade aberta, via formação de fase vítrea, levando desse modo a uma diminuição da lixiviação do cromo. No entanto, a adição somente de vidro a CSC aumentou a lixiviação do cromo dos corpos cerâmicos, embora sempre menor para temperaturas de queima crescentes. Deve-se isso, ao aumento de fases lixiviáveis, como cromatos de sódio, a partir da reação do sódio, do vidro sodo-cálcico e do cromo da CSC. Os corpos cerâmicos que apresentaram a fase cromato de sódio, apresentaram deficiente imobilização do íon cromo, em todas as formulações investigadas.