52 resultados para Geração de código
Resumo:
Este trabalho situa-se na área de Sistemas Multiagente, que é uma sub-área da Inteligência Artificial Distribuída. Em particular, o problema abordado nesta dissertação é o da modelagem de ambientes, um aspecto importante na criação de simulações baseadas em sociedades de agentes cognitivos, no entanto pouco tratado na literatura da área. A principal contribuição deste trabalho é a concepção de uma linguagem, chamada ELMS, própria para a definição de ambientes multiagente, e a implementação de um protótipo de interpretador para esta linguagem. O resultado da interpretação é um processo que simula o ambiente descrito em alto nível, e é apropriado para a interação com os agentes cognitivos que irão compartilhar o ambiente. Esta linguagem foi desenvolvida no contexto do projeto MASSOC, que tem como objetivo a criação de simulações sociais com agentes cognitivos. A abordagem deste projeto dá ênfase ao uso da arquitetura BDI para agentes cognitivos, a comunicação inter-agente de alto nível (ou seja, baseada em atos de fala) e a modelagem de ambientes com a linguagem ELMS, que é proposta neste trabalho. Os ambientes e agentes que podem ser usados na criação de simulaçõpes, bem como a comunicação entre eles utilizando a ferramenta SACI, são definidos ou gerenciados a partir de uma interface gráfica, que facilita a criação e controle de simulações com a plataforma MASSOC. Além de apresentar a linguagem ELMS e seu interpretador, esta dissertação menciona ainda, como breve estudo de caso, uma simulação de aspectos sociais do crescimento urbano. Esta simulação social auxiliou na concepção e avaliação da linguagem ELMS.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
Trata o presente objeto de pesquisa da proposta de desenvolvimento de um modelo de ambiente de avaliação remota para Ensino à Distância, baseado no paradigma de Orientação a Objetos e elaborado com base na tecnologia de sistemas multiagentes. Para a validação do modelo, foi desenvolvido um protótipo denominado Javal, capaz de permitir a aplicação e monitoração da realização de avaliações e testes à distância. As soluções comerciais disponíveis no mercado, como Question Mark Perception, Aula Net e WebCT possuem código fechado e custo elevado, além de serem baseadas em soluções proprietárias (QML - Question Mark, ASP - Microsoft, etc.), necessitando de plataforma específica para instalação de servidores e clientes. Quanto ao aspecto funcional, estas ferramentas possuem a base de sua lógica de funcionamento em execução de scripts no servidor. Para cada item de uma avaliação a ser respondido, torna-se necessária a efetivação de uma nova conexão. O modelo proposto traz toda a funcionalidade do sistema para o ambiente do aluno, tornando necessária apenas uma conexão para a busca da avaliação e outra para o envio dos resultados, reduzindo o tráfego na rede. Quanto ao aspecto pedagógico, estas ferramentas limitam-se apenas a apresentar uma avaliação somativa do aluno, geração de graus e estatísticas, não se preocupando em monitorar seus aspectos comportamentais, capazes de apontar indícios de possíveis falhas no aprendizado ou na elaboração da avaliação. A proposta do modelo é da apresentação de um ambiente orientado a objetos, capaz de distribuir elementos representativos das avaliações existentes no modelo tradicional de ensino, incorporando recursos capazes de possibilitar a monitoração de aspectos comportamentais do aluno, pelo emprego de agentes monitores ou tutores, que podem acompanhar o aluno e auxiliá-lo em situações de dificuldade. O modelo proposto por este trabalho envolve as avaliações formativas e somativas, aplicadas de forma assíncrona e individual. Como sugestão para trabalhos futuros, o modelo propõe o desenvolvimento de classes capazes de implementar a aplicação de avaliações síncronas e em grupo. A validação do modelo proposto foi realizado através do desenvolvimento de um protótipo que, com base no desenvolvimento de uma API Javal específica, implementa os principais tipos de questões disponíveis no sistema de ensino tradicional, além de agentes tutores de avaliação.
Resumo:
A perda de material, na forma de sobras ou resíduos, no processamento das toras de madeira, além de ser uma variável muito importante para o gerenciamento da produção é responsável por uma parcela significativa dos impactos ambientais causados pela produção de madeira serrada. A quantificação e a identificação dos resíduos do processamento (desdobro) da madeira são componentes fundamentais para o estudo de suas possibilidades de aproveitamento como insumo de outros produtos. Tradicionalmente o aproveitamento dos resíduos ou sobras pelas serrarias tem sido utilizados em caldeiras para geração de vapor para a secagem da madeira processada e para produzir energia elétrica. Mas os resíduos e sobras, que são uma fonte de matéria-prima madeireira, também podem ser empregados para a produção de outros produtos, tais como: chapas e painéis. O presente trabalho consistiu de uma pesquisa realizada em serrarias das três principais regiões produtoras de madeira serrada do Rio Grande do Sul, as quais processam madeira de espécies de Eucalyptus spp. e Pinus spp. A pesquisa visou obter informações a respeito do processo produtivo de madeira serrada de florestas plantadas por serrarias e sua consequente geração de resíduos e sobras. Os resultados obtidos, além de estabelecerem um diagnóstico da produção de madeira serrada de florestas plantadas e da conseqüente geração de resíduos e sobras pelas serrarias no Rio Grande do Sul, revelam aspectos referentes ao atual destino e o aproveitamento potencial dos resíduos e sobras, neste caso para a produção de painéis ou chapas de madeira reconstituída Esta pesquisa e a análise dos dados coletados trazem, ainda, contribuições para o estabelecimento de formas e programas de redução na geração, qualificação e utilização de resíduos e sobras, como mecanismo de redução dos impactos ambientais negativos, através da substituição do processo da queima ou dispensa indevida na natureza, dando ênfase na sustentabilidade ambiental e econômica no uso do insumo madeira. O aproveitamento de sobras e resíduos serve, ainda, para agregar valor à madeira e para o emprego em produtos com base na madeira consumidos por setores industriais importantes, tal como a construção civil.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Resumo:
O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.
Resumo:
Diversas novas aplicações têm sido descobertas para o óleo de mamona, um produto vegetal diferenciado pelas propriedades que lhe são características. Capaz de substituir a utilização de fontes não renováveis em muitas situações, é o principal produto extraído da mamoneira, cultura para a qual o Brasil não tem dispensado muita atenção. O grande potencial de utilização desse óleo também tem sido pouco explorado nacionalmente, diferente de outros países que já o empregam estrategicamente na elaboração de seus produtos. No Rio Grande do Sul, estão sendo feitas pesquisas, de iniciativa governamental e também privada, no sentido de implementação de um Pólo Oleoquímico. No entanto, muitos questionamentos ainda cercam o tema, que é de exploração recente, alguns deles dizendo respeito à viabilidade econômica da produção de óleos vegetais. O trabalho em pauta trata desse tema, propondo-se a analisar a rentabilidade da produção de óleo de mamona no Estado, comparando-se duas modalidades de determinado processo. O caráter da pesquisa é o exploratório, contribuindo para o estabelecimento de novos questionamentos e discussões acerca da viabilidade da industrialização do óleo de mamona, bem como fornecendo algumas respostas a potenciais investidores do setor oleoquímico.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
O mundo moderno vem exigindo cada vez mais das pessoas no aspecto profissional. A exigência de capacitação profissional é uma realidade que obriga as pessoas a uma constante atualização. Neste contexto, a educação a distancia se mostra uma importante via de disseminação de conhecimento. Este trabalho apresenta um agente de Perfil do Usuário inserido no contexto do projeto PortEdu – Portal de Educação, projeto que visa abrigar ambientes de ensino na Web. Um dos objetivos do projeto PortEdu é fornecer um serviço de recuperação de informação aos ambientes ancorados, guiado pelo Agente Perfil do Usuário, tendo como finalidade oferecer informações contextualizadas a um problema específico do usuário (aluno), com a intenção de auxiliá-lo em seu aprendizado. Durante a utilização de ambientes de educação a distância, os alunos utilizam ferramentas de recuperação de informação na busca de soluções para as suas dúvidas. Mas, a busca de informação na Internet, utilizando as ferramentas existentes, nem sempre é uma tarefa simples, pois exige esforço na construção de termos de busca eficientes ou mantém o usuário percorrendo longas listas de resultados. No desenvolvimento deste serviço, no PortEdu, procuramos minimizar este tipo de esforço. Neste trabalho são descritas, primeiramente, as áreas envolvidas na pesquisa, mostrando como elas foram utilizadas na construção do Agente de Perfil do Usuário. Também é realizada uma descrição da área de inteligência artificial, dos conceitos de agente e Educação a Distancia. Pretende-se mostrar aqui as propriedades que o Agente de Perfil do Usuário possui Na seqüência, são apresentadas as soluções tecnológicas utilizadas no projeto, tais como: AMPLIA (ambiente de ensino ancorado no PortEdu), PMA3, FIPA e a API Fácil. É descrito o modo como estas tecnologias interagem no âmbito do PortEdu. O problema da recuperação de informação na Web é discutido nesta pesquisa e são apresentados três trabalhos relacionados que abordam este problema. Também é realizada uma comparação entre estes trabalhos e o PortEdu. Por fim, este trabalho apresenta uma solução encontrada para resolver o problema de recuperação de informação na Web utilizando um protótipo do PortEdu. Esta pesquisa está inserida na área de Informática na Educação.
Resumo:
Esta dissertação enquadra-se em um processo de busca de soluções para a geração do leiaute de circuitos integrados que permitam aumentar a qualidade da previsibilidade do comportamento de um circuito após a sua implementação. Isso é importante face ao crescimento dos problemas referentes aos efeitos elétricos adversos que surgem em nanocircuitos, tais como eletromigração, efeito antena, contatos mal formados e outros, assim como o aumento da variabilidade do processo de fabricação em tecnologias submicrônicas. O foco deste trabalho de pesquisa é a busca de soluções regulares através do uso de matrizes de portas lógicas. A experimentação efetuada realiza a geração de uma matriz de portas NAND que viabiliza a implementação de equações lógicas mapeadas para redes de portas NAND e inversores, admitindo-se a parametrização do fanout máximo. Foi desenvolvida uma ferramenta de CAD, o MARTELO, que permite efetuar a geração automática de matrizes de portas lógicas, sendo que a versão inicial está voltada para a geração de matrizes com portas NAND em tecnologia CMOS. Os experimentos efetuados revelam que esta técnica é promissora, sendo apresentados alguns dos resultados obtidos.
Resumo:
Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.
Resumo:
Este estudo investiga se a alternância de código é empregada como estratégia culturalmente sensível em uma primeira série, primeira etapa em um contexto multilíngüe, na localidade de Boa Vista do Herval, interior de Santa Maria do Herval, RS. Para tal, foram feitos registros em vídeo e em áudio das atividades de sala de aula, regularmente, uma vez por semana, durante um semestre. As aulas são compostas por três grandes momentos, as atividades da hora da rodinha inicial, o trabalhinho nas mesas e a hora da rodinha final. Estas, por sua vez, podem ser divididas em eventos, constituídos pelos enquadres (Goffman, 2002), que podem ser considerados uma moldura em torno do alinhamento e das estruturas de participação (Philips, 2002; Gumperz, 1982). Dentro dessa análise da interação, encontrou-se a ocorrência da alternância de código com a função primordial de manter o curso da interação (Auer, 1988) e, através disso, ser uma estratégia da pedagogia culturalmente sensível (Bortoni-Ricardo e Dettoni, 2001), proporcionando voz, vez e acolhimento a crianças provindas de uma realidade lingüística em que predomina o uso do alemão, em contraste com a exigência escolar de uso do português.
Resumo:
Uma das questões mais debatidas na atualidade diz respeito à problemática ambiental. A impossibilidade da verificação de muitos dos possíveis efeitos da atividade agrícola no ambiente rural tem levado pesquisadores das mais diversas áreas a buscar alternativas viáveis para uma utilização sustentável do ambiente. O presente trabalho apresenta o desenvolvimento de uma metodologia diferenciada para lidar com a questão. Utilizou-se, para isto, um estudo de caso em uma unidade de planejamento, a saber, uma bacia hidrográfica, ou microbacia hidrográfica (MBH) como será explanado no decorrer do texto, localizada no município de Maximiliano de Almeida, no Estado do Rio Grande do Sul, com uma área de cerca de 11,96 km2. Para esta bacia foram aplicadas as técnicas vinculadas às Metodologias Multicritério em Apoio à Decisão (MCDA – Multicriteria Decision Aided) visando à formulação de critérios quando do uso do geoprocessamento. Assim, a partir de uma revisão bibliográfica geral sobre os aspectos relacionados ao assunto em pauta, foram realizados os procedimentos metodológicos pertinentes, vinculados ao uso de MCDA e geoprocessamento, os quais resultaram em mapas específicos. A análise dos mapas resultantes corroborou as hipóteses apresentadas. Os resultados obtidos servem, portanto, como indicativos para a utilização desta metodologia nas demais bacias hidrográficas trabalhadas pela Associação Riograndense de Empreendimentos de Assistência Técnica e Extensão Rural – EMATER/RS – tida como parceira neste trabalho.