1000 resultados para Tempo de execução do contrato
Resumo:
O presente trabalho tem como objectivo a apresentação do processo de concepção e implementação de um projecto-piloto de um sistema de custeio baseado em actividades e tempo – TDABC, numa empresa industrial de conserva de pescado, Frescomar, S.A. Mais especificamente o trabalho desenvolveu-se na apuração do custo da área de produção da empresa objecto de estudo. O sistema de custeio Time-Driven Activity-Based Costing (TDABC) representa um modelo alternativo aos sistemas tradicionais da contabilidade de custos, e é uma evolução do Activity-Based Costing (ABC). O sistema ABC surgiu durante a década de 1980 e tem vindo a evoluir desde então. Muitas empresas abandonaram o ABC, pois este método de custeio, além de não conseguir captar a complexidade das suas operações, a sua implementação é demorado, e é muito dispendioso de aplicar e manter. Com o método TDABC encontra-se uma alternativa para dirimir estes problemas. Observou-se a necessidade do desenvolvimento de apenas algumas equações de tempo (time equations) para representar as principais actividades da área de produção. Foram observadas, durante a realização do estudo, vários dos benefícios do TDABC como: a facilidade em modelar actividades complexas por meio das equações de tempo, obtenção rigorosa de gastos e o baixo tempo de desenvolvimento do modelo. Contudo, também foram identificadas algumas limitações como subjectividade no cálculo do tempo de execução das actividades e dificuldade em se estimar as equações de tempo para actividades pouco estruturadas.
Resumo:
O penetrômetro de impacto Stolf, em uso desde o seu lançamento em 1982, é um aparelho para medida da resistência do solo, tipo dinâmico. No projeto original, uma escala centimétrica, de profundidade, foi gravada na própria haste de penetração. O objetivo desse procedimento, na época, foi facilitar o entendimento pelos agricultores e permitir a leitura direta na haste de penetração, além de evitar peças adicionais. O objetivo do presente estudo foi incorporar ao projeto original uma régua em escala milimétrica, a fim de trazer a leitura da profundidade ao nível da visão do operador, evitando o agachamento, e aumentar a precisão da leitura. A utilização do equipamento e o procedimento para posicionar o zero da escala são descritos e esquematizados. Foi realizada comparação entre o equipamento original, com leitura na haste, e o equipamento proposto, com leitura na régua, avaliando-se quanto aos valores da resistência determinados e ao tempo de execução de um perfil de solo. A utilização do equipamento com leitura na régua resultou em um tempo médio 21 % menor (teste t, 1 %). Além de reduzir o tempo de amostragem, verificou-se a preferência de usuários pelo novo procedimento, em razão do maior conforto ao operador, sendo essa modificação finalmente incorporada ao modelo comercial. Fez-se um histórico do desenvolvimento da tecnologia do penetrômetro de impacto, sendo o presente estudo complementar à primeira modificação no projeto construtivo, que permaneceu inalterado por 30 anos.
Resumo:
O objetivo deste estudo foi avaliar a duração dos efeitos da escarificação em Latossolo Vermelho argiloso, pelo estudo da relação entre solo e haste sulcadora de semeadora. Os tratamentos foram: solo sob semeadura direta há 13 anos; solo escarificado há quatro anos (2001); solo escarificado há dois anos (2003); e solo escarificado há seis meses (2005), todos com ou sem tráfego de máquinas agrícolas. Dados de esforço vertical, momento associado à haste sulcadora, área de solo efetivamente mobilizada, resistência específica operacional, macroporosidade, microporosidade, porosidade total e densidade do solo foram coletados, e o esforço de tração na haste sulcadora foi calculado. A demanda de esforços aumentou com o incremento no decurso do tempo de execução da escarificação, e o solo escarificado há seis meses apresentou a menor demanda. O solo escarificado há quatro anos apresentou comportamento similar ao solo sob semeadura direta, e ofereceu a menor área mobilizada e a maior resistência operacional. Nos parâmetros físicos, diferenças foram observadas apenas na camada 0-0,10 m, onde o solo recém escarificado apresentou a maior macroporosidade, e menor microporosidade e densidade do solo. Após quatro anos, não se evidenciou mais o efeito da escarificação na relação entre solo e haste sulcadora.
Resumo:
Este trabalho teve por objetivo avaliar os potenciais ganhos de operadores de harvester no treinamento com uso de simuladores de realidade virtual. Foram coletados dados durante o treinamento de 39 operadores, avaliando-se os seus desempenhos nas variáveis: tempo de execução no corte da árvore, direção de queda, altura de corte, eficiência no processamento, eficiência no empilhamento e produtividade. Os resultados permitiram a conclusão de que o simulador de realidade virtual é uma ferramenta viável do ponto de vista técnico e essencial no apoio ao treinamento de operadores de máquinas florestais, possibilitando a obtenção de elevados ganhos de qualidade e produtividade. O melhor desempenho dos operadores ocorreu com a variável produtividade, cujo ganho médio foi de 41,3% em relação ao início do treinamento, seguido pelo tempo de execução, com 38,8%; e pela direção de queda, com ganho médio de 36,1%.
Resumo:
Existem diversas técnicas para caracterização do módulo de elasticidade de madeiras e, dentre as atualmente empregadas, destacam-se aquelas que utilizam as frequências naturais de vibração, por serem técnicas não destrutivas e, portanto, apresentarem resultados que podem ser repetidos e comparados ao longo do tempo. Este trabalho teve como objetivo avaliar a eficácia, dos métodos de ensaios baseados nas frequências naturais de vibração comparando-os aos resultados obtidos na flexão estática na obtenção das propriedades elásticas em peças estruturais de madeira de reflorestamento que são usualmente empregadas na construção civil. Foram avaliadas 24 vigas de Eucalyptus sp. com dimensões nominais (40 x 60 x 2.000 mm) e 14 vigas de Pinus oocarpa com dimensões nominais (45 x 90 x 2.300 mm), ambas sem tratamento; 30 pranchas com dimensões nominais (40 x 240 x 2.010 mm) e 30 pranchas com dimensões nominais (40 x 240 x 3.050 mm), ambas de Pinnus oocarpa e com tratamento preservativo à base de Arseniato de Cobre Cromatado - CCA. Os resultados obtidos apresentaram boa correlação quando comparados aos resultados obtidos pelo método mecânico de flexão estática, especialmente quando empregada a frequência natural de vibração longitudinal. O emprego da frequência longitudinal mostrou-se confiável e prático, portanto recomendada para a determinação do módulo de elasticidade de peças estruturais de madeira. Verificou-se ainda que, empregando a frequência longitudinal, não há necessidade de um suporte específico para os corpos de prova ou calibrações prévias, reduzindo assim o tempo de execução e favorecendo o ensaio de grande quantidade de amostras.
Resumo:
O estudo do fluxo de água em zonas não saturadas do solo é de grande importância para pesquisas relacionadas à disponibilidade hídrica para o desenvolvimento das plantas. Devido ao alto custo, ao tempo demandado e ao esforço humano nas investigações de campo, os modelos matemáticos, aliados às técnicas numéricas e avanços computacionais, constituem-se em uma ferramenta importante na previsão desses estudos. No presente trabalho, objetivou-se solucionar a equação diferencial parcial não linear de Richards mediante a aplicação do Método de Elementos Finitos. Na aproximação espacial, foi empregada a adaptatividade com refinamento "h" na malha de elementos finitos e, na derivada temporal, foi aplicado o esquema de Euler Explícito. A função interpolação polinomial utilizada foi de grau 2, e a que garantiu a conservação de massa da estratégia de adaptação. Para a validação do modelo, foram utilizados dados disponíveis em literatura. A utilização da função interpolação polinomial de grau 2 e o refinamento "h", com considerável redução do tempo de execução da rotina computacional, permitiram uma boa concordância do modelo em comparação a soluções disponíveis na literatura.
Resumo:
A deficiência de estrógenos, as alterações do perfil lipídico, o ganho de peso e o sedentarismo são considerados os principais fatores para a maior prevalência de hipertensão arterial em mulheres na menopausa. Na tentativa de reduzir a incidência da hipertensão arterial nessa população, diversas abordagens têm sido empregadas, porém a maioria dos trabalhos mostra que, nesse momento, a mudança de estilo de vida parece ser a melhor estratégia para o controle da hipertensão arterial e de seus fatores de risco nessa fase de vida da mulher - entre elas a prática de atividade física regular. O exercício físico contínuo, no qual a intensidade é mantida constante (leve/moderada), tem sido empregado na maioria dos trabalhos dentro da área de Saúde, com evidentes efeitos benéficos sobre as doenças cardiovasculares e endócrino-metabólicas. A prescrição do exercício contínuo caracteriza-se por atividades de pelo menos 30 minutos, três dias por semana, numa intensidade de 50 a 70% da frequência cardíaca máxima. O exercício físico intermitente caracteriza-se por alterações em sua intensidade durante a realização do treinamento, podendo variar de 50 a 85% da frequência cardíaca máxima, durante dez minutos. Atualmente, o exercício físico intermitente tem sido também empregado como forma de treinamento físico em diversas clínicas de controle de peso e em treinamentos personalizados, o que é devido ao menor tempo de execução do exercício físico intermitente. Além disso, trabalhos mostram que as adaptações metabólicas e o condicionamento físico são similares aos observados no exercício contínuo, que exigem maior tempo de execução para obter as mesmas adaptações celulares. Assim, essa revisão abordou a importância do exercício físico no controle da pressão arterial bem como os principais estudos conduzidos em modelos experimentais de menopausa e em mulheres, relacionando a hipertensão arterial e os mecanismos envolvidos em sua gênese e as perspectivas futuras.
Resumo:
OBJETIVO: Analisar a eficácia e a ocorrência de complicações, além do tempo de permanência hospitalar e as perdas sanguíneas. MÉTODOS: Trinta pacientes foram selecionadas, alternada e consecutivamente, em um dos grupos (15 no Grupo Curetagem e 15 no Grupo de Aspiração manual intrauterina). As variáveis analisadas foram: eficácia do método, ocorrência de complicações, tempo pré-procedimento, tempo de execução do procedimento, tempo pós-procedimento e tempo total de permanência hospitalar, além de hematócrito e hemoglobina, medidas antes e após o procedimento. As pacientes foram avaliadas clinicamente 10 a 14 dias após o procedimento. Para a análise estatística, foram aplicados testes paramétricos e não-paramétricos e o nível de significância admitido foi de p>0,05. RESULTADOS: Ambos os métodos foram eficazes e não foi registrada nenhuma complicação. As perdas sanguíneas foram semelhantes e o tempo de permanência hospitalar foi significativamente menor no Grupo de Aspiração Manual Intrauterina (p=0,03). CONCLUSÃO: a aspiração manual intrauterina é tão eficaz e segura quanto à curetagem uterina, com a vantagem de necessitar menor tempo de permanência hospitalar, o que aumenta a resolutividade do método, melhorando a qualidade da assistência a essas pacientes.
Resumo:
Os testes utilizados para identificação de biótipos resistentes de plantas daninhas aos herbicidas variam segundo o tempo de execução e o grau de complexidade, sendo necessário determinar a eficácia de métodos rápidos e de simples execução. Foram realizados dois ensaios, simultaneamente, em laboratório, em delineamento completamente casualizado, empregando a imersão de folhas de E. heterophylla suscetíveis e resistentes a inibidores da ALS e da PROTOX em solução herbicida. A parte aérea das plantas foi submersa em solução herbicida com diferentes concentrações de imazethapyr, imazapyr e nicosulfuron (inibidores da ALS) e fomesafen, lactofen e carfentrazone (inibidores da PROTOX). O controle do biótipo suscetível foi crescente com o decorrer do tempo, e as doses comerciais dos inibidores da ALS e da PROTOX testados apresentaram controle eficiente. O biótipo resistente mostrou diferentes níveis de resistência em função do herbicida testado e da variável considerada. Os resultados encontrados respaldam a técnica da imersão foliar como adequada para a discriminação de biótipos suscetíveis ou com resistência múltipla a inibidores da ALS e PROTOX. A técnica demonstrou ser rápida o suficiente para a detecção precoce da resistência, o que possibilitaria a adoção de medidas de contenção ainda na mesma safra.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
Esta dissertação descreve uma arquitetura de suporte para a criação de sistemas de automação baseados em objetos distribuídos e no barramento CAN. Consiste basicamente da utilização de orientação a objetos para modelagem dos sistemas bem como sua implementação na forma de objetos autônomos. Os objetos são então distribuídos em uma rede de placas microcontroladas, as quais são utilizadas para o controle da planta, e PC's, os quais são utilizados para supervisão e monitoração. O suporte em tempo de execução para os objetos é dado por um sistema operacional que permite a sua implementação na forma de processos concorrentes, o qual, no caso das placas microcontroladas, é um sistema operacional do tipo embarcado. A comunica ção entre os objetos é realizada através de um protocolo publisher/subscriber desenvolvido para o barramento CAN que é suportado por uma biblioteca e elementos de comunicação especí cos. Este trabalho tem como objetivo apresentar alternativas aos sistemas de automação existentes atualmente, os quais baseiamse geralmente em dispositivos mestre/escravo e em comunicações do tipo ponto a ponto. Dessa forma, a arquitetura desenvolvida, apropriada para sistemas embarcados, visa facilitar a criação e dar suporte para sistemas de automação baseados em objetos distribuídos.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.