24 resultados para Software livre, Brasil

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Ensino Colaborativo suportado por Computador, conhecido por CSCL (Computer Supported Collaborative Learning), utiliza-se de uma metodologia de ensino em que os alunos trocam idéias sobre assuntos que foram previamente pesquisados. O professor tem a função de moderador onde incentiva e orienta os alunos no processo de aprendizagem através da criação de cenários para motivação dos mesmos, sugerindo artigos e direcionando-os para os pontos mais importantes de cada assunto. Entretanto, para que se possa buscar uma interação apropriada entre o aluno e o ambiente de aprendizagem, se faz necessária à utilização de ferramentas que propiciem um maior controle sobre o sistema, permitindo assim, a monitoração das tarefas executadas pelo usuário, podendo direcioná-lo de forma correta na busca do aprendizado interativo. Busca-se, através deste trabalho, subsidiar o estudo de Lachi, permitindo a monitoração das ações através de um agente de colaboração, nos horários de aulas prédeterminados e fora destes horários, mantendo informações sobre a freqüência das interações realizadas e permitindo uma melhor orientação pelo responsável das atividades a serem executadas pelos alunos, através da captura das conversações realizadas num ambiente de Educação a Distância que utiliza Software Livre, o qual como resultado final proporcionará a análise das conversações com aplicação de um algoritmo de best search pelo professor, das ações dos participantes, no qual foi proposto por Lachi e agora implementamos parcialmente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente estudo identifica os efeitos dos novos acordos de livre comércio sobre os produtores de arroz no Brasil e nas demais regiões relevantes no mercado mundial. Inicialmente , são analisados os acordos comerciais de âmbito multilateral e regional, bem como as principais tendências. Na análise, verificam-se as distorções de mercado e os efeitos sobre os mercados agrícolas. Entre os produtos agrícolas comercializados no mercado internacional, o arroz tem a maior proteção por parte dos países e dos blocos regionais. Em função disto, o comércio de arroz está limitado a 5% da quantidade produzida no mundo, e os preços apresentam uma te ndência de queda ao longo das últimas décadas. A fim de compreender o funcionamento deste mercado, são definidas as principais regiões, analisados os desempenhos destas no mercado internacional e avaliadas as políticas domésticas e de comércio exterior adotadas pelos países. Neste sentido, a área de est udo foi definida com base na afinidade comercial e regional com os países do Mercado Comum do Sul (MERCOSUL) e no desempenho em termos de produção, consumo e comercialização de arroz. Entre as regiões de maio r relevância em termos de produção e consumo, destacamse a China, a Associação das Nações do Sudeste Asiático (ASEAN) e o Acordo Preferencial de Comércio do Sul da Ásia (SAPTA), enquanto por afinidade regional e comercial com os países do MERCOSUL salientam-se os países do Acordo de Livre Comércio da América do Norte (NAFTA), da Comunidade Andina (CAN) e da União Eur opéia (UE) Na análise do desempenho dos países e regiões no mercado internacional, observa-se que a performance de cada região é influenciada pelas políticas intervencionistas, de tal forma que grande parte dos países exportadores adota algum tipo de incentivo à exportação de arroz. Para analisar os efeitos dos novos acordos comerciais, como, por exemplo, da Área de Livre Comércio das Américas (ALCA), MERCOSUL-UE e MERCOSUL-CAN, desenvolve- se um modelo de alocação espacial e temporal utilizando-se de um Problema Complementar idade Mista (PCM). Este modelo permite considerar as diferentes barreiras tarifárias e os subsídios concedidos pelas regiões em estudo, incluindo diferentes cenários que contemplem reduções tarifárias e de subsídios. Desta forma, no primeiro cenário são incluídos os aspectos relacionados com os acordos multilaterais junto à OMC. Por outro lado, os cenários 2, (MERCOSUL-CAN), 3, (ALCA), e 4 (MERCOSUL-UE) simulam acordos de livre comércio de âmbito regional, considerando aspectos como, por exemplo, a eliminação (redução) das barreiras tarifárias e a eliminação (redução) de subsídios Por último, o quinto cenário é subdividido em dois grupos: o primeiro deles considera a formação da área de livre comércio entre a ASEAN e a China; o segundo trata dos efeitos sobre o me rcado internacional de arroz dada a entrada da China na OMC. Entre os cenários analisados destacam-se, como os mais favoráveis aos produtores brasileiros , os acordos de livre comércio com a CAN e os acordos de livre comércio com a UE. Em ambos os cenários existem perdas aos consumidores brasileiros e aos produtores dos países da CAN e da UE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa os efeitos que a formação da Área de Livre Comércio das Américas (ALCA) poderá exercer sobre o fluxo de comércio de um grupo de países que farão parte deste bloco, a partir da utilização de um modelo gravitacional. Inicialmente, apresentamos a fundamentação teórica sobre a formação de blocos econômicos, enfatizando os principais conceitos como criação de desvio de comércio. Um breve relato sobre o andamento das negociações para a formação da ALCA é apresentado a seguir, com ênfase no seu desenvolvimento histórico e temas ainda pendentes. A terceira parte do trabalho destina-se comentar alguns estudos sobre o mesmo tema que utilizaram metodologias diferentes para analisar o mesmo tema. Na quarta parte, são estimados os efeitos sobre o comércio de três importantes blocos já em vigor na região (Pacto Andino, MERCOSUL e NAFTA) através do modelo gravitacional. Este modelo permite identificar os efeitos sobre o comércio que podem ser atribuídos exclusivamente a formação dos blocos, separando-os dos demais fatores que influenciam o padrão de comércio. Os resultados obtidos por meio da equação gravitacional servem de base para a criação de cenários prospectivos da ALCA. No cenário mais otimista, o comércio do Brasil com os principais parceiros da ALCA cresceria significativamente, assim como os fluxos comerciais entre os demais países analisados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo analisa a orientação das exportações brasileiras de seis produtos de base agrícola (açúcar, café, frango, fumo, soja e o suco de laranja), procurando observar se ela vem ocorrendo em direção da futura Área de Livre Comércio das Américas (ALCA), valendo-se do Índice de Orientação Regional. Busca também avaliar a importância destes produtos na pauta de exportações brasileiras, através do índice de Vantagens Comparativas Reveladas (VCR). Descreve as tarifas de importação de alguns países que irão compor a ALCA juntamente com o Brasil, no intuito de concluir o benefício da eliminação das mesmas para cada um dos produtos. Constata-se que os produtos brasileiros deverão beneficiar-se da abertura comercial promovida através da ALCA, salvo no caso da carne de frango que deve ser considerado como um produto sensível para que não sofra concorrência dos EUA num primeiro momento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em função da importância do processo de jigagem no beneficiamento de carvão no Brasil, onde 95% da produção bruta, ROM, é beneficiada em jigues para a obtenção de carvão energético ou carvão pré-lavado, e da inexistência de um trabalho sistemático de caracterização deste processo, esta dissertação apresenta um estudo detalhado do desempenho de jigues no beneficiamento de carvão nacional, através do levantamento dos critérios de avaliação de performance dependentes e independentes derivados das curvas de partição e análises densimétricas dos diversos produtos. São desenvolvidos "softwares" para o processamento dos diversos dados levantados "in situ", com aplicação nas áreas de cálculo de balanços de massas e metalúrgico, processamento de análises densimétricas, cálculo de coeficientes de partição, modelamento matemático de curvas de partição e cálculo dos critérios de avaliação de performance. Conclue-se que, de um modo geral, o processo de jigagem é mal empregado no Brasil, conduzindo obtenção de produtos de baixa recuperação. Isto ocorre basicamente em função das características peculiares do carvão nacional e do fato que, no Brasil, utiliza-se jigues de fabricação estrangeira, dimensionados para outros tipos de carvões de melhor qualidade. Este trabalho pretende alertar aos profissionais da área e oferece algumas sugestões com o objetivo de melhorar a baixa eficiência do beneficiamento de carvão observada em diversos lavadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Cinema e a Psicanálise são contemporâneos. Ao longo do ano de 1995 muitos eventos marcaram a comemoração do centenário de um e outro. Se ambos surgem no mesmo momento histórico, que outros elos poderiam ser estabelecidos? Algumas considerações preliminares marcam possibilidades de interseções entre um e outro campo, para logo fazer um recorte onde a escolha recai por estabelecer uma associação entre os temas da associação-livre na psicanálise e a montagem no cinema. A questão básica norteadora da pesquisa está dada pela busca de bases comuns entre o fazer do analista quando interpreta a cadeia associativa produzida por seus pacientes e o fazer do montador quando produz cortes e junções de trechos fílmicos justapondo-os em uma seqüência determinada. A metodologia que perpassa a presente pesquisa está constituída basicamente pelo referencial psicanalítico. Subsidiariamente os aportes postos pelo método clínico piagetiano, em suas origens, servem de guia e inspiração para alguns momentos do trabalho. Estudamos cadeias associativas produzidas em três contextos diferentes, configurando três fontes de coleta e análise de dados: trechos de falas de pacientes em análise, principalmente aqueles que fazem referências a relatos de sonhos e filmes; "montagens" de trechos de filmes produzidas por alunos para ilustrar trabalhos na disciplina de "Teoria e Técnicas Psicoterápicas" e cortes e transições numa seqüência fílmica digitalizada utilizando os recursos propiciados pelo software Adobe Premiere LE. Algumas conclusões apontam no sentido da possibilidade de ser profícuo o trabalho conjunto de cineastas e psicanalistas, especialmente na constituição de um laboratório de estudos para construção de conhecimentos e desenvolvimento das habilidades requeridas para a formação de profissionais das duas áreas. Muitas perspectivas para desdobramentos e continuidade são indicadas, visando constituir uma linha de pesquisa sistemática na interseção dos campos do cinema e da psicanálise

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o objetivo do presente estudo foi analisar o pico de força articular (FA) do tornozelo, joelho e quadril do membro inferior direito, e a ativação eletromiográfia (AE) da musculatura da coluna dorso-lombar no manuseio de carga, no movimento de colocar e retirar uma caixa situada no chão e na altura dos olhos. Foram utilizadas cargas correspondentes a I% e 10% da massa corporal do sujeito, totalizando-se oito tarefas. A amostra foi composta por 4 mulheres e 4 homens, na faixa etária entre 23 a 36 anos. Nenhuma instrução foi dada em relação à forma de execução da tarefa caracterizando-a como estilo livre. Para a análise do pico de FA utilizou-se a dinâmica inversa 2D, com auxílio de rotinas desenvolvidas no software MATLAB. Para análise da AE foi utilizada a eletromiografia de superfície. Adotou-se um Índice Postural (IP) nas tarefas de altura baixa para quantificar a postura no início da retirada da carga, e no final da colocação da mesma. Para o tratamento estatístico foi realizado o teste de normalidade de Shapiro-Wlik, e de homogeneidade de Levene após a ANOVA e post-hoc Tukey-b. O nível de significância foi p< 0.05. Em todas as situações o pico de FA apresentou um padrão em que os valores foram maiores no tornozelo, seguidos pelo joelho e depois pelo quadril. O fator que influenciou significativamente o pico de FA, o valor RMS e pico de AE foi a altura, sendo os maiores valores encontrados na altura baixa com peso pesado no movimento de retirar. Em uma relação temporal, os picos de FA e picos de AE na tarefa da altura baixa no movimento de retirar, em sua maioria, ocorreram na primeira metade do movimento, e no movimento de colocar na segunda metade. Já em uma relação temporal na tarefa da altura alta, não houve um padrão. O IP identificou que a amostra realizou uma postura predominantemente de agachamento, não havendo diferença intra e entre os sujeitos. Durante o manuseio de carga na altura baixa, o instante do pico de FA ocorreu quando o joelho e o quadril estavam em flexão máxima, e o tornozelo em desiflexão. Infere-se, então, que as articulações estudadas podem estar mais suscetíveis a lesões nestes espaços temporais ao se manusearem cargas que se encontram ao nível do chão.