120 resultados para Tarefas motrizes
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O intuito deste trabalho 1ho foi investigar" as possíveis influências de tarefas socialmente convencionadas como vinculadas ao sexo sobre a utilização de princípios de Justiça Distributiva em alocações de recursos numa situação hipotética. Foram entrevistadas 686 crianças, de ambos os sexos, com idade média de 12,2 anos, cursando as quintas e sextas séries do I grau de escolas da rede pública estadual e de níveis sócioeconômicos médio e médio-baixo. A amostra foi dividida entre dois entrevistadores de sexos diferentes. Foi usado uma história ilustrada por uma série de 21 desenhos.Cada desenho representou uma situação experimental aonde foram manipuladas as variáveis sexo dos personagens, tarefas vinculadas ao sexo e quantidade de trabalho produzido. Foram encontrados efeitos significativos do Sexo do Experimentador sobre o comportamento de alocação do sujeitos. Além disso, apareceram indicativos sugestivos de maior valorização da tarefa masculina e de tendência de sujeitos do sexo masculino para distribuir recompensas de maneira eqüitativa e sujeitos do sexo feminino, de maneira igualitária.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
As transformações sociais, políticas e econômicas verificadas em escala global têm influenciado sensivelmente na definição de um novo papel e nova conformação do município enquanto ente integrante da federação. Neste contexto, busca-se investigar, em particular, a efetiva adequação das estruturas de cargos de provimento efetivo vigentes numa amostra de três pequenos municípios situados na região da Grande Porto Alegre - RS. A verificação desta adequação toma por orientação as necessidades efetivas da administração pública, bem como as realidades observadas no ambiente local. Buscando captar a percepção de pessoas envolvidas diretamente com a formulação, gerenciamento e controle das estruturas de cargos vigentes nos municípios pesquisados, realiza-se um estudo que parte de uma coleta de dados baseada em fontes secundárias e avança para uma pesquisa in loco, que tem o propósito de levantar as necessidades e a natureza das atividades efetivamente desenvolvidas pelos servidores públicos nas prefeituras. O estudo evidencia contradições entre proposições legais e orientações teóricas, acerca da definição das estruturas de cargos, e necessidades reais das administrações municipais quanto a pessoas e postos de trabalho. Verifica-se, assim, um confronto entre as estruturas formais e as estruturas reais em vigor. Os resultados alcançados na pesquisa apontam para a existência de desconformidades entre as estruturas de cargos administrativos e operacionais definidas em lei e as reais necessidades dos municípios. Pôde-se perceber, nos três casos estudados, que a prática administrativa atual reflete um paradoxo. De um lado, existem sólidas orientações e pressupostos burocráticos e legalistas (princípio da legalidade administrativa) e, de outro, realidades permeadas de ilegalidades e desvios de função, que se justificam pela efetiva realidade dos governos municipais, que são pressionados por novas, muitas e diferentes demandas sociais. A partir da análise das realidades encontradas nos três casos estudados, sugeremse estruturas mais flexíveis e adequadas às necessidades dos respectivos municípios, evidenciando, assim, que os seus quadros de pessoal podem ser conformados a um novo e mais moderno papel.
Resumo:
A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.
Resumo:
O presente estudo objetiva investigar o uso de sites (aqui denominados “sites institucionais”) na Internet a partir de duas aulas de língua inglesa como LE em que sites na Internet foram usados como insumo para a execução de tarefas que culminam com a produção textual da língua alvo por parte dos alunos. O estudo se insere como pesquisa qualitativa e etnográfica, embora haja também alguns dados quantitativos. Os dados gerados e analisados são oriundos de um curso livre de idiomas em Porto Alegre. Os dados mostram que, nas duas turmas, a Internet serviu como fonte de pesquisa e as informações inseridas nos sites institucionais e registradas em handouts serviram como insumo para as tarefas propostas como fechamento em que houve a produção oral e escrita da língua alvo. Na primeira aula, uma atividade lúdica de fechamento foi proposta e não foi considerada comunicativa, embora tivesse havido produção oral de inglês. As tarefas de fechamento na segunda aula, ao contrário, foram consideradas comunicativas por envolver os alunos em uma interação dialógica em que partilharam os dados coletados na Internet (information gap) e emitiram suas opiniões (opinion gap) acerca de qual de duas organizações não-governamentais (Greenpeace e PETA) apoiariam, seguidas de justificativas individuais.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Este estudo objetiva analisar três forças motrizes que muito influenciaram a escritura de Monteiro Lobato: o conto, a tradução e a ideologia humanista. Conhecido por sua literatura infantil, pouco se estudou sobre sua obra adulta e menos ainda sobre sua profícua atividade tradutória. Como contista, Lobato pode ser dito – ao lado de Machado de Assis – um dos grandes incentivadores do conto, resgatando-o de sua posição marginal e elevando-o à categoria de gênero literário em uma época geralmente negligenciada pela crítica – sua produção anterior à Semana de Arte Moderna (1922) –, alcançando seu público através de estratégias de marketing inovadoras e, portanto, formando um novo público leitor brasileiro. Seus ideais nacionalistas e suas crenças ideológicas estão presentes em tudo o quanto escreveu, proporcionando ao leitor do século XXI um claro panorama de sua época. O humanismo é, se não a mais visível ideologia em sua obra, a que gerou maior conflito, sobretudo em contraste com sua formação cristã e seu refinado tom pessimista. Tendo traduzido mais de cem livros, Lobato contribuiu indiscutivelmente tanto para a circulação quanto para a edição de obras traduzidas – inglesas e norteamericanas em sua maioria –, enriquecendo, dessa forma, nosso polissistema literário e promovendo uma sensível mudança no status da tradução, marginal e secundária na época. Ele consciente e cuidadosamente escolhia o que traduzia com o intuito de alcançar um objetivo: dar ao público leitor brasileiro – especialmente ao infantil – literatura estrangeira de qualidade. Segundo ele, Kipling estava arrolado entre os “sumos” contistas, o que o levou a traduzir e publicar suas obras, experiência que resultou tanto na apropriação quanto na expropriação daqueles textos, o que pode ser facilmente verificado por qualquer leitor atento tanto da contística quanto do epistolário de Lobato, nas muitas estratégias por ele empregadas: empréstimos, invocações de personagens, reconstrução de histórias e imagens das narrativas de Kipling.
Resumo:
A morte neuronal é uma causa importante de disfunção no sistema nervoso central, que se manifesta comportamentalmente como déficits motores, cognitivos ou de memória. Uma causa importante de morte neuronal é a isquemia que é definida como a falta, ou diminuição, do aporte de sangue para os tecidos (GINSBERG, 1995 a; PULSINELLI, 1997). A região CA1 do hipocampo é a mais vulnerável à isquemia (PULSINELLI et al., 1982; SCHIMIDT-KASTNER & FREUND, 1991; NETTO et al., 1993; NELSON et al., 1997), e está relacionada com a memória tanto em humanos como em animais (SQUIRE, 1992). Vários trabalhos mostram que os animais isquêmicos apresentam pior desempenho em tarefas de aprendizado e memória (GINSBERG, 1997; SQUIRE, 1992; NETTO et al., 1993; NELSON et al., 1997). Estratégias visando proteger as células contra um dano letal vêm sendo estudadas há vários anos. A tolerância induzida à isquemia é a neuroproteção induzida por uma isquemia transitória breve a um evento isquêmico transitório de longa duração. Em geral, um evento isquêmico breve, de 2 minutos de duração, protege contra a morte celular induzida por uma isquemia grave, de 10-20 minutos de duração, desde que haja um período de 24 horas entre os dois eventos isquêmicos (CHEN & SIMON, 1997; KITAGAWA et al., 1997; BARONE et al., 1998; ROSA NETO, 1998). O presente trabalho teve como objetivo reproduzir o fenômeno da tolerância induzida à isquemia em ratos adultos e avaliar o efeito da tolerância induzida sobre o aprendizado e a memória da tarefa no labirinto aquático de Morris e sobre o volume da região CA1 hipocampal, pelo método de Cavalieri, em ratos submetidos à isquemia transitória grave. Os animais foram submetidos a um estudo do aprendizado da tarefa de localização da plataforma em um labirinto aquático em três fases. O labirinto aquático foi dividido virtualmente em 4 quadrantes com um ponto de largada entre cada um. Na primeira fase, a plataforma foi colocada em um dos quadrantes, onde permaneceu durante os 6 dias de treino., com 4 largadas em cada dia, e um teste no 7º dia sem a plataforma. Na segunda fase foram 4 dias de treino, seguido pelo teste, com a plataforma no quadrante oposto. Na última fase, a plataforma era colocada em um local diferente a cada dia para testar a memória de trabalho. Não foi observado diferença estatisticamente significativa nas latências para encontrar a plataforma entre os grupos controle e isquêmicos em todas as tarefas. Na análise do volume da região CA1, observamos uma diminuição de 20% nos animais submetidos à isquemia de 10 min., comparado com os dos grupos controle, isquemia de 2 min. e isquemia de 2+10 min. (neuroproteção) (p<0.05). Estes resultados comportamentais estão de acordo com os encontrados por alguns autores (KIYOTA et al., 1991; GREEN et al., 1992), porém outros autores relatam resultados diferentes (NETTO et al., 1993; IQBAL et al., 2001). As diferenças entre as metodologias utilizadas poderiam explicar parcialmente os resultados divergentes, também podemos supor que, 20% de diminuição de volume não é suficiente para provocar comprometimento do aprendizado.
Resumo:
As acidemias propiônica e metilmalônica são desordens neurometabólicas hereditárias caracterizadas por progressiva deterioração neurológica, retardo mental, atraso no desenvolvimento psicomotor, convulsões e coma. A fisiopatologia do dano cerebral característico destas doenças ainda é pouco conhecida. No presente estudo investigamos o efeito de administração crônica (5o ao 28o dia de vida) dos ácidos propiônico (PA) e metilmalônico (MA), que são os metabólitos acumulados em maiores concentrações nos pacientes portadores das acidemias propiônica e metilmalônica, respectivamente, sobre o comportamento de ratos e sobre alguns parâmetros bioquímicos de estresse oxidativo no hipocampo dos animais. O comportamento dos animais foi avaliado 30 dias após o término do tratamento nas tarefas do labirinto aquático de Morris e no campo aberto. Os parâmetros bioquímicos avaliados foram o potencial antioxidante total do tecido (TRAP) e a atividade das enzimas catalase, superóxido dismutase e glutationa redutase. Todos as análises bioquímicas foram realizadas em hipocampo, estrutura fundamental para a localização espacial, requerida na tarefa do labirinto aquático de Morris. As doses de propionato ou metilmalonato foram administradas de acordo com as preconizadas nos modelos experimentais destas acidemias, tomando em consideração o peso e da idade dos animais. Os ratos controles receberam solução salina nos mesmos volumes. A administração de PA ou MA não alterou o peso dos animais. Entretanto foi encontrado um déficit de aprendizado e memória no grupo tratado com PA, e um déficit de memória no grupo tratado com MA. Nenhum dos grupos testados apresentou alterações na atividade motora (número de cruzamentos) na tarefa do campo aberto. Também determinamos o efeito da co-administração de ácido ascórbico nos animais tratados cronicamente com PA ou MA. Encontramos que o ácido ascórbico preveniu o déficit cognitivo provocado pela administração crônica de PA e MA. Por outro lado, verificamos que os tratamentos crônicos com PA e MA diminuíram o TRAP no hipocampo dos ratos, sem alterar a atividade de nenhuma das enzimas testadas. A prevenção do déficit cognitivo pelo ácido ascórbico associada à diminuição do TRAP no hipocampo dos animais tratados cronicamente com PA ou MA sugere que o estresse oxidativo pode estar relacionado com o déficit cognitivo encontrado no presente trabalho. Concluindo, nossos resultados indicam que o estresse oxidativo pode estar envolvido, ao menos em parte, com o dano cerebral nos pacientes afetados pelas acidemias propiônica e metilmalônica.
Resumo:
Neste trabalho, além de investigarmos o tipo de representação mental (proposições, imagens ou modelos mentais) utilizado por estudantes de Física Geral na área de Mecânica Newtoniana, tentamos identificar possíveis modelos mentais que estes estudantes teriam sobre alguns conceitos físicos. Baseamos nosso estudo na Teoria dos Modelos Mentais de Johnson-Laird. Estudantes de nível universitário foram observados durante dois semestres com o objetivo de determinar o tipo de representação mental que eles teriam utilizado durante o curso, quando resolviam os problemas e as questões propostas nas tarefas instrucionais. Foi realizada uma entrevista no final do curso com a finalidade de encontrar elementos adicionais que nos permitissem inferir modelos mentais sobre conceitos físicos usados pelos estudantes na elaboração de suas respostas. Os resultados desta pesquisa sugerem a importância dos modelos mentais na compreensão e uso dos conceitos físicos. Parece que quanto mais “elaborados” os modelos mentais, mais facilmente os alunos poderiam compreender situações e contextos distintos daqueles trabalhados em aula.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
Esta dissertação tem por objeto a Didática do Ensino da Tradução. Partindo do pressuposto que tradução pode ser ensinada, pretende, através dos postulados teóricos de DELISLE e HURTADO, chegar à concepção da melhor abordagem didática para esse ensino. Considerando a realidade organizacional e didática de um curso de formação de tradutores, analisa a sua situação atual e oferece sugestões para a otimização do seu trabalho, levando em conta a opinião de estudantes e professores que a ele estão vinculados. Neste trabalho, a perspectiva escolhida foi a do Ensino por Objetivos de Aprendizagem, desenvolvida por meio do Enfoque por Tarefas de Tradução. Inicialmente faz-se uma revisão bibliográfica sobre o ensino da tradução e suas perspectivas em âmbito nacional e institucional; em seguida, retomam-se várias tendências didáticas dessa área de estudo e chega-se ao posicionamento por uma nova proposta didática que encare a tradução como processo mental peculiar, ou seja, um conhecimento procedimental - o saber como - que fundamentado em princípios teóricos que serão fixados pela prática, é processado de forma essencialmente automática. Esses princípios, oriundos da psicologia cognitiva, encaminham o trabalho para a proposição de novas possibilidades de ensino e aprendizagem. O estudo realizado propiciou o surgimento de diversas questões sobre a situação do ensino da tradução, em sentido amplo, mas principalmente no Bacharelado em Tradução da UFRGS. A reflexão que a partir daí se faz resulta em sugestões sobre procedimentos didáticos que poderão subsidiar esse curso, não só nos seus aspectos pedagógicos, mas também na sua estrutura organizacional.
Resumo:
O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.