185 resultados para Distância egocêntrica
Resumo:
Empregamos a técnica de Dinâmica Molecular para estudar propriedades de defeitos pontuais nos compostos intermetálicos ZrNi e Zr2Ni. Descrevemos as configurações estáveis de defeitos e mecanismos de migração, assim como as energias envolvidas. Os potenciais interatômicos foram derivados do Embedded Atom Model. No intuito de levar em conta a variação de estequiometria causada pela presença de alguns tipos de defeitos em intermetálicos, apresentamos um método numérico que fornece a energia efetiva de formação de defeitos e aplicamos o método ao ZrNi e Zr2Ni. Os resultados mostraram que vacâncias são mais estáveis na sub—rede do Ni, com energia de formação de 0,83 e-0,61 eV em ZrNi e Zr2Ni, respectivamente. Vacâncias de Zr são instáveis em ambos compostos; elas decaem espontaneamente em pares anti—sítio e vacância de Ni. Configurações e energias de formação de intersticiais também foram calculadas e mostraram comportamentos similares. Em ZrNi, a migração de vacâncias ocorre preferencialmente nas direções [025] e [100], com as respectivas energias de migração 0,67 e 0,73 eV, e é um processo essencialmente bidimensional no plano (001). Em Zr,Ni, a migração de vacâncias é unidimensional, ocorrendo na direção [001], com energia de migração de 0,67 eV. Em ambos compostos a presença de defeitos de anti—sítio de Ni diminui a energia de migração da vacância de Ni em até 3 vezes e facilita a movimentação em três dimensões. Mecanismos de anel não são energeticamente eficientes em comparação com saltos diretos. As configurações estáveis de intersticiais em ambos compostos consistem em um átomo de Ni sobre o plano (001) entre dois vizinhos de Zr fora do plano. Intersticiais de Zr são instáveis e tendem a deslocar um átomo de Ni, ocupando seu sítio. Energias de deslocamento foram estudadas através de simulações de irradiação de ambos compostos. Durante o processo de colisão binária, um potencial universal ZBL foi usado para colisões a curta distância. Para distâncias intermediárias usamos um potencial de união arbitrário. Zr mostrou—se mais difícil de ser arrancado de seu sítio do que Ni. Encontramos valores de energia de deslocamento no intervalo de aproximadamente 29 eV até 546 eV. Alguns resultados experimentais são mostrados e apresentam boa concordância com os cálculos.
Resumo:
O objetivo geral desta dissertação é estudar as possibilidades de flexibilização da função de saída do Sistema Hyper-Automaton além das rígidas possibilidades utilizadas atualmente com a utilização direta do HTML, objetivando eliminar as limitações como execução de aplicações proprietárias, caracteres incompatíveis entre browsers, excesso de tráfego na rede, padronizar aplicações, incrementar recursos didáticos, melhorar o suporte a aplicações multimídia atuais e futuras, facilitar a manutenção, implementação e reuso, alterar o layout de saída no browser de maneira dinâmica, explorar outros recursos de links, estabelecer padrões de organização do material instrucional criado pelo professor e muitas outras. Tal sistema anteriormente desenvolvido e funcionando adequadamente, é baseado no formalismo de Autômatos Finitos com Saída como modelo estrutural para organização de hiperdocumentos instrucionais, em especial em cursos na Web, tornando o material hipermídia independente do controle da aplicação. O Sistema Hyper-Automaton, tornou-se portanto, um sistema semi-automatizado para suporte a cursos na Web. Com o desdobramento da pesquisa, esta procurou ir mais além e descreveu possibilidades de não só estudar os aspectos possíveis de formatação de saída do sistema, mas reestruturá-lo totalmente sobre uma linguagem de markup padrão, buscando atualizá-lo tecnologicamente definindo outras possibilidades para que significativos trabalhos futuros possam de maneira mais clara serem alcançados. Dessa maneira, esta dissertação centra-se no estudo da aplicação de formas de flexibilização do Sistema Hyper-Automaton, tanto na parte da estruturação de documentos que são conteúdos instrucionais armazenados, bem como, na forma desse material tornar-se-á disponível através de navegadores WWW compatíveis com as tecnologias propostas, possibilitando o incremento substancial de funcionalidades necessárias para cursos onde a Web é o principal meio. Esta pesquisa dá prosseguimento a dois trabalhos anteriormente concluídos no PPGC e do Curso de Bacharelado em Ciência da Computação da UFRGS no ano de 2000, na seqüência, Hyper-Automaton: Hipertextos e Cursos na Web Utilizando Autômatos Finitos com Saída, dissertação de mestrado de Júlio Henrique de A. P. Machado e Hyper-Automaton: Implementação e Uso, trabalho de diplomação de Leonardo Penczek.
Resumo:
Esta dissertação apresenta um estudo da satisfação com os critérios conforto, segurança, adaptabilidade, praticidade, adequação e aparência e da percepção de desconforto/dor de usuários de cadeiras de escritório. A partir dos resultados de quatro estudos de caso, dos quais participaram trinta e um voluntários que testaram vinte e nove cadeiras durante um dia de trabalho, buscou-se confirmar a hipótese que a satisfação com as cadeiras depende das características do trabalho realizado. Para este fim, determinaram-se os experimentos para trabalho estático, médio e dinâmico. A análise dos resultados, com base em suporte estatístico, mostrou que cadeiras com assento e encosto independentes, apoio para braços em forma “T”, com altura regulável e menor distância entre os braços são melhores para trabalho estático e que cadeiras em concha única, com apoio para braços em forma diferente de “T”, com altura fixa e maior distância entre os braços são melhores para trabalho dinâmico.
Resumo:
O atual contexto social tem sido marcado pelo constante avanço tecnológico e científico, pela rápida defasagem dos conhecimentos e pela demanda por profissionais mais qualificadas e capazes de aprender e resolver problemas colaborativamente. A fim de atender esta demanda, o ensino tradicional tem que mudar, de forma que as pessoas possam desenvolver habilidades de “aprender a aprender” e “aprender colaborativamente”. A Aprendizagem Colaborativa tem sido apontada como uma alternativa a este problema, possibilitando uma aprendizagem flexível, ativa e centrada no aluno. Os alunos aprendem em colaboração com outros alunos, o que possibilita uma aprendizagem mais profunda, através de trocas de idéias, dúvidas e pontos de vista. Por outro lado, o advento da rede Internet e a consolidação desta como um importante meio de comunicação mundial têm introduzido novas possibilidades à Aprendizagem Colaborativa Apoiada por Computador (Computer Supported Collaborative Learning – CSCL). Uma atenção especial tem sido dada ao WWW, serviço que possui grande potencial como meio ativo de aprendizagem, embora seja amplamente utilizado como meio passivo de transmissão de informações pela Internet. Este cenário tem viabilizado a utilização da infra-estrutura da Internet para a criação de um sistema de CSCL de grande alcance e a um custo relativamente baixo. O objetivo principal do presente trabalho é propor e implementar um modelo de CSCL baseado na Internet que forneça, de forma integrada, o suporte necessário para o desenvolvimento efetivo de atividades colaborativas de aprendizagem. O trabalho realizado pode ser dividido em três etapas principais: (1) o levantamento teórico, que consistiu no estudo das principais áreas relacionadas com o trabalho desenvolvido, o que foi fundamental para a definição do modelo de sistema de aprendizagem colaborativa proposto; (2) a definição do modelo, que consistiu no levantamento das atividades básicas que devem ser apoiadas por um ambiente de CSCL e na proposição do modelo de um sistema de CSCL baseado na Internet com suporte às atividades levantadas; (3) a implementação do modelo, que possibilitou a verificação da viabilidade da utilização do serviço WWW como base para um ambiente de CSCL, através da utilização de recursos de programação para web e da integração de ferramentas já existentes na Internet.
Resumo:
O presente estudo buscou analisar, qualitativamente, as práticas de trabalho e comprometimento dos trabalhadores de duas empresas prestadoras de serviços, aqui denominadas de empresas contratadas, em relação a uma universidade, que chamaremos de empresa contratante. A análise procurou identificar uma possível prática de comunicação nos dois sentidos ou, segundo Dessler (1996), através de um diálogo de mão dupla, ou seja, a comunicação interníveis, recepção e resposta a queixas e efetiva avaliação de desempenho. As empresas pesquisadas tanto as que oferecem seus serviços para terceirização, como a universidade que as contrata, pertencem à cidade de Porto Alegre. Os dados colhidos neste estudo são classificados como qualitativos e, também, quantitativos e foram assim distribuídos: a) Itens de caráter quantitativo, referentes ao perfil pessoal dos trabalhadores; b) Itens elaborados com base nas chaves de comprometimento de Dessler (1996), referentes à interação de trabalhadores e empresas às quais estão ligados por contrato e à qual prestam serviços, de caráter qualitativo. A conclusão é a seguinte: o comprometimento dos trabalhadores da empresa contratada é menor para com a qual mantêm vínculo empregatício do que com aquela onde desempenham sua atividades (a universidade). Ao final do trabalho, resta um questionamento: é possível, às empresas contratadas, diminuírem a distância que inviabiliza uma comunicação ou via de mão dupla, que oportunizaria um maior nível de participação e, consequentemente, a possibilidade de avaliação dos empregados, dentro das condições que dispõem?
Resumo:
Imagens georreferenciadas LANDSAT 5 TM da região da Mina Leão II, situada na Depressão Central do Estado do Rio Grande do Sul, foram processadas e classificadas digitalmente com objetivo de gerar o mapa de uso e cobertura do solo. Destas imagens, a drenagem foi extraída na forma vetorial, com o objetivo de determinar a faixa de proteção em torno dela. Dados topográficos plani-altimétricos analógicos foram tratados gerando o modelo digital do terreno e mapas de declividades. Foram definidos critérios para selecionar sítios adequados à colocação de rejeitos de carvão. Imagens de uso e cobertura do solo, declividades, rede de drenagem, litologias, estruturas geológicas, e distância a partir da boca da mina foram transformadas em sete fatores. Três fatores são absolutos ou restrições: zona de proteção da drenagem, zona de restrição em torno dos falhamentos e declividades superiores a 8%. Os restantes, são fatores relativos: uso e cobertura do solo reclassificado, declividade inferior a 8%, substrato litológico e distância a partir da mina. Aos quatro fatores relativos foi atribuída uma ponderação pareada. Através das ferramentas computacionais de apoio à decisão, em um Sistema de Informação Geográfica, os oito diferentes fatores foram cruzados, resultando um mapa temático que localiza e classifica sítios para a locação de rejeitos de carvão. As classes identificadas foram: área de restrição, péssima, regular, boa e ótima. O mapa de uso e cobertura do solo foi reclassificado em função de ser elaborada uma imagem de superfície de atrito, a partir do local da boca da mina, com a finalidade de se projetar vias de menor custo, desde a mina até a BR290 e a um porto situado no rio Jacuí. Dados sobre a espessura da camada de carvão inferior, "I", de uma campanha de sondagem de 182 furos, foram tratados por metodologia de geoestatística. Estudos de estatística descritiva, análise de continuidade espacial e estimação foram realizados, culminando com a cubagem da camada na área de estudo. Foi escolhido o processo de interpolação através da krigagem ordinária. A tonelagem da camada de carvão "I" foi estimada na ordem de 274.917.234 a 288.046.829 t. com nível de confiança de 95%.
Resumo:
O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].
Resumo:
O presente estudo teve por objetivo avaliar se a aplicação tópica de flúor fosfato acidulado (FFA) em alta concentração tem efeito adicional no controle de lesões de esmalte, comparado ao uso de dentifrício fluoretado (baixa concentração). A freqüência de FFA como auxiliar no tratamento de lesões de cárie e a deposição de flúor no esmalte após diferentes aplicações de flúor am alta e baixa concentração também foram avaliadas. Para tanto, 5 indivíduos utilizaram, por 42 dias, próteses parciais removíveis inferiores contendo blocos de esmalte bovino desmineralizados. Os espécimes de esmalte forma divididos em 5 grupos: (1) escovação 3 vezes ao dia com dentifrício fluoretado (DF) (1100 ppm F), (2) DF+1 aplicação tópica FFA (12300 ppm F), (3) DF+2 FFA, (4) DF+3 FFA, e 5) DF+4 FFA. O intervalo entre as aplicações foi de uma semana. Cinco blocos hígidos e 5 blocos desmineralizados foram utilizados como controle e não foram submetidos ao período intraoral. As alterações clínicas foram registradas com relação à textura, coloração e brilho superficiais. Análises de microdureza superficial (MS) e em cortes longitudinais (MCL), de rugosidade superficial (RS) e de conteúdo de flúor depositado no esmalte foram realizadas. Modificações clínicas semelhantes de coloração foram observadas em todos os grupos após formação da lesão in vitro, apesar da ausência de mudanças na textura e brilho superficiais. Após escovação e tratamento com flúor, todos os blocos desmineralizados (esbranquiçados), independentemente do tratamento, tornaram-se mais amarelados. Não foram detectadas mudanças na textura e brilho superficiais. Os valores de MS e de conteúdo de flúor aumentaram (p<0,05) em relação aos blocos demineralizados somente a partir de 2 FFA. Os valores de MCL não mostraram diferenças entre os blocos tratados e os desmineralizados em qualquer distância da superfície do esmalte. Os grupos DF+3 FFA e DF+ 4 FFA foram os únicos capazes de aumentar os valores de MS em relação aos blocos desmineralizados. Estes tratamentos levaram a um aumento significativo de flúor solúvel e insolúvel comparado aos espécimes hígidos e desmineralizados. Ainda que todas as lesões tenham sido controladas clinicamente e não mostrem diferenças de microdureza, parece que aquelas tratadas com maior número de FFA produziram um maior reservatório de flúor disponível para inibir novos processos de desmineralização.
Resumo:
O desenvolvimento tecnológico do setor construção civil no Brasil não tem sido acompanhado de ações sistemáticas de formação/qualificação profissional de seus trabalhadores em níveis compatíveis com os novos padrões técnico/industriais. Aportes provenientes de várias áreas do conhecimento podem contribuir para a reversão dessa situação. De caráter interdisciplinar, envolvendo arquitetura, construção civil, educação e informática, este trabalho investiga como os recursos informáticos e telemáticos podem contribuir para a qualificação de trabalhadores da indústria da construção civil. Abordando um tema específico – leitura e interpretação de plantas arquitetônicas –, investiga as possibilidades que essas novas tecnologias podem oferecer para ações de qualificação de trabalhadores, bem como verifica as condições em que esses se apropriam dos recursos que serão predominantes nos processos de trabalho no milênio que se inicia. Adotando um referencial construtivista, foi projetado e aplicado um experimento, consistindo de um site na Internet e de um programa de desenho, em que os participantes não apenas tomam contato passivamente com diversos conteúdos relativos à sua atuação profissional, mas contribuem com seus conhecimentos tanto na definição dos temas e tópicos a serem abordados quanto na produção de conhecimentos relativos aos temas propostos, fazendoos participantes ativos e não meros leitores. Recursos como animações, imagens sobrepostas, textos, etc. são empregados para apresentar os princípios fundamentais da representação prévia do espaço construído As participações dos usuários são registradas por meio de formulários, cujos textos produzidos são disponibilizados posteriormente aos demais participantes. Os resultados obtidos dão conta da viabilidade de iniciativas dessa natureza em ações que façam uso da rede mundial de computadores para a qualificação de trabalhadores, contribuindo para a superação de desequilíbrios na distribuição dos recursos de formação.
Resumo:
Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.
SAM: um sistema adaptativo para transmissão e recepção de sinais multimídia em redes de computadores
Resumo:
Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.
Resumo:
O final da Glaciação Neopaleozóica está representado hoje no registro sedimentar da Bacia do Paraná pelas rochas do Grupo Itararé. No Estado do Rio Grande do Sul e no sudeste do Estado de Santa Catarina seus depósitos possuem idade eopermiana, datados desde o Asseliano até o Artinskiano. A partir de dados de testemunhos e de perfis de raios gama de dois poços, um em Santa Catarina (7-RL-04- SC) e outro no Rio Grande do Sul (IB-93-RS), perfurados para pesquisa de carvão pela CPRM (Companhia de Pesquisa de Recursos Minerais), foram feitas análises cicloestratigráficas com o intuito de determinar a existência e a natureza da possível ciclicidade induzida por fenômenos astronômicos presente nesses sedimentos glaciais (basicamente folhelhos e ritmitos). A distância entre as locações originais dos poços (cerca de 380 km) possibilitou testar a influência da indução astronômica em localidades distintas da bacia. Dois métodos de amostragem foram utilizados no estudo, de acordo com a escala dos dados e com a possível indução: os perfis de raios gama (191 m para o 7-RL-04-SC e 71 m para o IB-93-RS) foram digitalizados e amostrados em intervalos de 1 cm, com o intuito de testar a presença de indução pelos ciclos orbitais na escala de 20 mil a 400 mil anos, ou outros fenômenos indutores na escala de 3 mil a 10 mil anos, e os testemunhos foram escaneados nos intervalos com ritmitos, (1,2 m para o 7-RL-04-SC e 38 cm para o IB-93-RS) e transformados em dados em escala de cinza equiespaçados (0,2538 mm), objetivando a busca por ciclos anuais a milenares A análise harmônica pela transformada rápida de Fourier demonstrou a presença de ciclicidade em ambas as escalas: ciclos orbitais, com períodos de cerca de 17 mil a 100 mil anos, foram caracterizados em perfil e ciclos solares, com períodos de cerca de 22 a 1000 anos, foram evidenciados nos testemunhos. Os tempos de acumulação calculados para o poço 7-RL-04-SC nas duas escalas mostraram um alto grau de correlação (cerca de 9400 anos para o intervalo escaneado e aproximadamente 12600 para o mesmo intervalo nos dados do perfil), comprovando a eficiência dos métodos de obtenção dos dados e a utilidade da cicloestratigrafia como ferramenta de análise e refinamento cronoestratigráfico. Quanto às espessas seções de ritmitos, características do Grupo Itararé e presentes nos testemunhos, estas têm sido freqüentemente denominadas de varvitos ou referenciadas como semelhantes a varvitos na literatura. Porém os resultados mostraram que cada par de ritmitos foi depositado em períodos de vinte e dois anos, relacionados aos ciclos solares de Hale. A análise permitiu ainda o estudo das relações existentes entre várias variáveis, como a taxa e o tempo de acumulação, e a definição, na seção do poço 7-RL-04-SC, de seqüências deposicionais de terceira e de quarta ordem. Essas últimas são associadas à indução pelos ciclos orbitais de excentricidade e comparáveis aos períodos glaciais do Pleistoceno, sendo que as taxas de acumulação calculadas para os dados do poço, variando entre 5,2 a 9,3 cm/ka, são muito similares às taxas de acumulação do Pleistoceno. A análise também mostrou que a seção completa do Grupo Itararé no poço IB-93-RS corresponde apenas à cerca de meio ciclo de precessão (12342 anos). Como os dois fenômenos de indução astronômica detectados, os ciclos solares e os orbitais, afetam o clima de maneira global, certamente influenciaram a sedimentação em outros pontos da bacia.
Resumo:
O uso da Internet como ferramenta de ensino tem se tornado cada vez mais freqüente. A recente popularização da Internet vem permitindo o desenvolvimento de ambientes de ensino-aprendizagem baseados na Web. Os principais recursos explorados para fins educacionais são hipertexto e hipermídia, que proporcionam uma grande gama de elementos para o instrutor que pretende utilizar a WWW. Este trabalho está inserido no desenvolvimento do ambiente AdaptWeb (Ambiente de Ensino e Aprendizagem Adaptativo para a Web), que visa o desenvolvimento de um ambiente de educação a distância. A arquitetura do ambiente é composta por quatro módulos entre eles o módulo de Armazenamento de dados que armazena todos os dados provenientes da fase de Autoria utilizando XML (Extensible Markup Language). Na etapa de Autoria é feita a inserção de todos os dados relativos a disciplina que deseja disponibilizar, estes dados serão armazenados temporariamente em uma representação matricial em memória. A entrada de dados do módulo de Armazenamento de Dados é esta representação matricial que serve então como base para a geração dos arquivos XML, que são utilizados nas demais etapas do ambiente. Para a validação dos arquivos XML foram desenvolvidas DTD (Document Type Definition) e também foi implementado um analisador de documentos XML, utilizando a API (Application Programming Interface) DOM (Document Object Model), para efetuar a validação sintática destes documentos. Para conversão da representação matricial em memória foi especificado e implementado um algoritmo que funciona em conformidade com as DTD especificadas e com a sintaxe da linguagem XML.
Resumo:
Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.
Resumo:
Os parâmetros biomecânicos do nado crawl: distância média percorrida por ciclo de braçadas (DC), freqüência média de ciclos (FC), velocidade média de na-do (VM) e ângulos médios de rolamento de corpo (RC) e parâmetros antropométri-cos: estatura, massa e envergadura de 16 nadadores competitivos (10 especialistas na prova de 50 m nado livre e 6 especialistas da prova de 1.500 m nado livre) e 8 tri-atletas foram mensurados em seis situações distintas de nado: 3 intensidades subjeti-vas específicas (aquecimento, 1.500 m e 50 m nado livre) com e sem respiração, a fim de se verificar e comparar o comportamento dessas variáveis nos três grupos em re-lação à variação da velocidade média de nado e em relação à presença ou ausência do movimento de respiração. Cada atleta realizou 6 repetições de 25 m nas condições já citadas, os quais foram gravados utilizando-se dois sistemas independentes de ví-deo, um para imagens frontais (uma haste de 0,70 m de PVC foi fixada às costas dos atletas para permitir a mensuração dos ângulos de rolamento de corpo) e outro para imagens laterais (uma fita reflexiva foi fixada ao punho direito dos atletas para per-mitir a mensuração de DC, FC e V). Adotando-se um nível de significância de 0,05, nadadores de 50 m nado livre apresentaram maior estatura e envergadura apenas que triatletas. Em relação às variáveis biomecânicas, os nadadores de 50 m nado livre apresentaram maiores VM do que nadadores de 1.500 m e do que triatletas, com maiores DC e similares FC. O RC diminuiu com o aumento da VM apenas para o grupo de nadadores de 50 m. Os nadadores de 50 m nado livre apresentaram similar RC em relação a triatletas e maior RC do que nadadores de 1.500 m em apenas duas (intensidade de aquecimento e intensidade de prova de 1.500 m nado livre, ambas com respiração) das seis situações de nado. Foram encontradas correlações significa-tivas entre os parâmetros biomecânicos FC e DC nos três grupos, entre VM e RC e entre DC e RC apenas no grupo de nadadores de 50 m nado livre. Os parâmetros na-tropométricos não limitaram a performance tanto quanto às técnicas de nado; e incre-mentos na DC, em paralelo a RC equilibrado entre os dois lados, devem ser incenti-vados em nadadores e triatletas competitivos.