1000 resultados para Aplicações multi-camada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O teor de N disponível em solos tratados com lodo de esgoto é um dos fatores restritivos à aplicação do resíduo em grandes volumes na agricultura, e deve ser utilizado nas normas que regulamentam seu uso agrícola com o fim de evitar a contaminação ambiental do solo e corpos d'água com nitrato. Quando se aplica o resíduo pela primeira vez em um solo, a disponibilização de N mineral a partir de compostos orgânicos naturais do solo não é diretamente considerada no cálculo da taxa de aplicação máxima, e este procedimento é comum também nas recomendações de adubação mineral. Porém, a aplicação continuada desses resíduos pode causar efeitos residuais acumulativos na geração de N mineral, o que implicaria recomendações específicas para reaplicações em uma mesma área. O objetivo deste trabalho foi avaliar a disponibilidade potencial de N mineral em um Latossolo previamente tratado com lodos de esgoto e com quatro cultivos sucessivos de milho. Amostras de solo da camada de 0-20 cm foram coletadas em subparcelas de um experimento realizado em campo, entre 1999 e 2002, em Jaguariúna (SP), onde foram aplicados 0, 14.716, 29.432, 58.864 e 117.728 kg ha-1 de lodo de origem urbana (Franca, SP) e 0, 22.700, 45.400, 90.800 e 181.600 kg ha-1 de lodo produzido a partir de esgotos urbanos e industriais (Barueri, SP). As doses foram parceladas em quatro aplicações anuais consecutivas. Em laboratório, essas amostras foram incubadas durante 15 semanas. As análises iniciais dos solos evidenciaram que houve efeito residual das aplicações prévias dos lodos sobre o acúmulo de N orgânico e de nitrato. No final da incubação, houve acúmulo de N inorgânico no solo e diminuição do pH em função da maior geração de nitrato com as doses crescentes dos lodos de esgoto. O potencial de mineralização estimado pelo modelo exponencial simples foi de 28 mg kg-1 de N no tratamento sem lodo, e crescente, de 28 para 100 mg kg-1 de N, nos tratamentos com lodo de Franca, e de 40 para 113 mg kg-1 de N tratamentos com lodo de Barueri. Concluiu-se que os efeitos residuais acumulados no solo devem ser considerados quando se pretender fazer novas aplicações de lodos de esgoto num mesmo local. Os potenciais de mineralização de compostos de N do solo e do lodo que será utilizado, além do acúmulo de nitrato no perfil do solo, devem ser determinados e considerados para o cálculo da dose da próxima aplicação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os dejetos de suínos constituem uma boa fonte de nutrientes, porém, quando inadequadamente usados, podem constituir-se em fator negativo de impacto ambiental. O objetivo deste trabalho foi avaliar o efeito do uso prolongado de dejetos de suínos como fertilizante sobre os atributos químicos do solo, em áreas com culturas anuais sob plantio direto. Amostras de solo foram coletadas em propriedades rurais da região oeste de Santa Catarina com tradição no uso de dejetos de suínos como fertilizante. Foram selecionadas áreas de três tipos de solo: Latossolo, Cambissolo e Neossolo, que haviam recebido dejetos de suínos por um período de aproximadamente 15 anos e por mais de 20 anos. Foram também coletadas amostras de solo adubado com fertilizante mineral e sob mata nativa em áreas adjacentes, para comparação. A amostragem do solo foi feita em sete profundidades (0-5, 5-10, 10-20, 20-30, 40-50, 70-80 e 100-110 cm), para determinação dos teores de matéria orgânica e de P, K, Cu e Zn disponíveis. O uso prolongado de dejetos de suínos proporcionou o acúmulo desses nutrientes nas camadas superficiais do solo, principalmente até a profundidade de 5 cm. O teor de matéria orgânica dos solos não foi alterado pelas sucessivas aplicações de dejetos de suínos. Em geral, as adubações anuais com dejetos de suínos não influenciaram a disponibilidade dos nutrientes no subsolo. No Neossolo e no Cambissolo, porém, observou-se movimentação de P até as camadas de 40-50 e 70-80 cm, indicando maior potencial de lixiviação do elemento nesses solos. O acúmulo de Cu e Zn ocorreu principalmente até 10 cm de profundidade no Latossolo e até 20 cm no Cambissolo e Neossolo. O grande acúmulo de nutrientes na camada superficial do solo (0-5 cm) em áreas adubadas com dejetos de suínos indica maior potencial de poluição ambiental por escoamento superficial do que as áreas com adubação mineral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presença de metais pesados no lodo de esgoto é uma das restrições quanto ao seu uso em áreas agrícolas. Este estudo teve por objetivo avaliar os efeitos da aplicação de doses de lodo de esgoto por 11 anos consecutivos em um Latossolo Vermelho distrófico sobre as concentrações de Ba, Cd, Cr e Pb em três profundidades no solo (0-10, 10-20 e 20-40 cm), bem como quantificar os mesmos metais na folha diagnose e nos grãos de milho. O experimento foi conduzido em condições de campo, utilizando-se o delineamento experimental em blocos casualizados com quatro tratamentos (0, 5, 10 e 20 t ha-1 de lodo de esgoto, base seca) e cinco repetições. As amostras de folha diagnose, solo, plantas inteiras e grãos foram obtidas, respectivamente, aos 60, 68, 80 e 123 dias após a emergência das plantas. A aplicação de doses de lodo de esgoto de 10 e 20 t ha-1 aumentou os teores de Ba, Cr e Pb na camada superficial do solo (0-10 cm), mas não alterou os de Cd. As doses do lodo de esgoto testadas não proporcionaram incrementos nas concentrações de Cd, Cr e Pb na folha diagnose e de Ba, Cd, Cr e Pb nas plantas de milho. A concentração de Ba na folha diagnose reduziu com a aplicação do resíduo. Os teores de Cd e Pb em grãos de milho permaneceram abaixo dos limites estabelecidos para o consumo humano, a concentração de Cr não pôde ser avaliada e nenhuma referência foi encontrada para comparar as concentrações de Ba.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Comparar dados de dosimetria e fluência de fótons entre diferentes modelos de mama, discutindo as aplicações em testes de constância e estudos dosimétricos aplicados à mamografia. MATERIAIS E MÉTODOS: Foram simulados diferentes modelos homogêneos e um modelo antropomórfico de mama tipo voxel, sendo contabilizadas: a dose total absorvida no modelo, a dose absorvida pelo tecido glandular/material equivalente, e a dose absorvida e a fluência de fótons em diferentes profundidades dos modelos. Uma câmara de ionização simulada coletou o kerma de entrada na pele. As combinações alvo-filtro estudadas foram Mo-30Mo e Mo-25Rh, para diferentes potenciais aceleradores de 26 kVp até 34 kVp. RESULTADOS: A dose glandular normalizada, comparada ao modelo voxel, resultou em diferenças entre -15% até -21% para RMI, -10% para PhantomMama e 10% para os modelos Barts e Keithley. A variação dos valores da camada semirredutora entre modelos foi geralmente inferior a 10% para todos os volumes sensíveis. CONCLUSÃO: Para avaliar a dose glandular normalizada e a dose glandular, em mamas médias, recomenda-se o modelo de Dance. Os modelos homogêneos devem ser utilizados para realizar testes de constância em dosimetria, mas eles não são indicados para estimar a dosimetria em pacientes reais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neural Networks are a set of mathematical methods and computer programs designed to simulate the information process and the knowledge acquisition of the human brain. In last years its application in chemistry is increasing significantly, due the special characteristics for model complex systems. The basic principles of two types of neural networks, the multi-layer perceptrons and radial basis functions, are introduced, as well as, a pruning approach to architecture optimization. Two analytical applications based on near infrared spectroscopy are presented, the first one for determination of nitrogen content in wheat leaves using multi-layer perceptrons networks and second one for determination of BRIX in sugar cane juices using radial basis functions networks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Since the last decade, the combined use of chemometrics and molecular spectroscopic techniques has become a new alternative for direct drug determination, without the need of physical separation. Among the new methodologies developed, the application of PARAFAC in the decomposition of spectrofluorimetric data should be highlighted. The first objective of this article is to describe the theoretical basis of PARAFAC. For this purpose, a discussion about the order of chemometric methods used in multivariate calibration and the development of multi-dimensional methods is presented first. The other objective of this article is to divulge for the Brazilian chemical community the potential of the combination PARAFAC/spectrofluorimetry for the determination of drugs in complex biological matrices. For this purpose, two applications aiming at determining, respectively, doxorrubicine and salicylate in human plasma are presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se uma visão geral da evolução do uso da SFE (extração com fluido supercrítico) na análise de plantas medicinais brasileiras dentro das pesquisas desenvolvidas pelo Laboratório de Cromatografia do IQSC-USP. Utilizou-se como fluido extrator o CO2, puro ou modificado com solventes de polaridade baixa a alta (pentano, solventes halogenados, álcoois, água), para a extração seletiva de princípios ativos de Maytenus aquifolium ("espinheira santa") e Mikania glomerata ("guaco"), respectivamente contendo triterpenos e cumarina. Os extratos obtidos por SFE foram analisados por CGAR (cromatografia gasosa de alta resolução), CLAE-DAD (cromatografia líquida de alta eficiência com detector" photodiodearray") ou CCD (cromatografia de camada delgada). A SFE forneceu resultados similares ou melhores do que os obtidos com métodos convencionais de extração (Soxhlet, maceração, etc), indicando o potencial uso da SFE para análise e/ou produção de preparações contendo estas plantas medicinais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A obtenção dos extratos etanólicos de própolis foi feita utilizando água e diferentes concentrações de etanol como solventes. Esses extratos foram analisados quanto ao seu espectro de absorção por espectrofotometria na região ultravioleta ("U.V. scanning"), por cromatografia em camada delgada de alta performance e por cromatografia liquida de alta eficiência (CLAE). O pico de absorção máxima de todos os extratos foi a 290 nm sendo o extrato etanólico a 80% o que apresentou maior absorção. A maioria dos flavonóides foram extraídos nas concentrações alcóolica entre 60 a 80%. Foram testados ainda o efeito anrirnicrobiano, antioxidante e anflinflamatório desses extratos. Verificou-se que os extratos etanólicos de própolis entre 60 a 80% inibiu satisfatoriamente o crescimento microbiano e os extratos etanólicos a 70 e 80% apresentaram grande atividade antioxidante, e ainda, o extrato etanólico a 80% foi a que melhor resultado apresentou sobre a inibição da atividade da enzima hialuronidase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho expõe uma análise sobre duas arquiteturas disponíveis para o desenvolvimento de sistemas que utilizam a tecnologia de workflow. Estas arquiteturas são: a Arquitetura Baseada em Modelagem e Execução em um ùnico Ambiente e a Arquitetura Baseada em Modelagem e Execução e Ambientes Distintos. São expostas: características, vantagens e desvantagens destas arquiteturas. A Aquitetura Baseada em Modelagem e Expressões em Ambientes Distintos é analisada em seu principal ponto negativo: a falta de independência existente entre as apliciações e os processos modelados, bem como são discutidos os problemas que esta falta de independência gera no desenvolvimemto e manutenção das aplicações. Uma alternativa à dependência entre o motor de workflow (engine) e as aplicações é proposta para a Arquitetura Baseada na Modelagem e Execução em Ambientes Distintos. Esta proposta é baseada em um modelo que consiste de uma Camada Intermediária, armazenada em um banco de dados relacional, capaz de extender as funcionalidades do motor de workflow. Este banco de dados armazena toda a estrrutura dos processos modelados, sendo responsável pela função que atualmente é repassada às aplicações: o controle da lógica dos processos. Estes trabalho produziu de uma Camada Intermediária, dividida em Camada de Independência (suportando a independência) e Camada de Integrgação (responsável pela comunicação com o motor de workflow). O estudo apresentada as estruturas do banco de dados, as funções disponibilizadas pela API da Camada Intermediária e um pequeno protótipo para dedmonstrar a arquitetura proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pesquisa objetivou compreender a inserção de organizações de catadores em programas empresariais de logística reversa para reciclagem de embalagens pós-consumo. O estudo multi-casos englobou programas empresariais de quatro setores de embalagens: vidro, papelão, embalagem longa vida e plástico PET. As unidades de análise foram as relações empresa/cooperativas de catadores. Utilizou-se como requisito para seleção dos programas o avanço das cooperativas na cadeia reversa através da sua atuação como fornecedoras de primeira camada, ou seja, sem “intermediários”. Foram realizadas entrevistas semiestruturadas com quatro empresas e quatro cooperativas de catadores, sendo uma delas analisada como explanação rival. De maneira geral observou-se que as características dos programas são função das motivações para estruturação da logística reversa, seja pela responsabilidade socioambiental, recuperação de materiais, competitividade da embalagem, imagem corporativa ou compras de materiais secundários. Além da obtenção de escala e regularização, o avanço das cooperativas de catadores nessas cadeias de suprimentos foi viabilizado através da aprendizagem prática quanto à correta identificação e seleção de materiais recicláveis e desenvolvimento de processos de pré-processamento para garantia de qualidade conforme, exigências das empresas. Vale destacar também a infraestrutura obtida através de convênios com a Prefeitura Municipal de São Paulo e de financiamentos pelo Banco Nacional do Desenvolvimento - BNDES. Em dois casos analisados constatou-se a atuação de empresas de bens de consumo na gestão de fluxos de informações, permitindo uma gestão eficiente das operações de logística reversa. Em todos os programas estudados, apesar da comercialização direta, faz-se necessária a realização de etapas de beneficiamento pelas empresas com emprego de tecnologias apropriadas. Para as cooperativas de catadores a comercialização direta tem proporcionado melhores preços dos materiais recicláveis e perspectivas de vendas em longo prazo e, consequentemente, perspectivas de vida e reconhecimento profissional dos catadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de aplicações web nos nossos dias é uma área importante, devido à disseminação do acesso à Internet e à utilização do browser como uma aplicação cliente universal. A aplicação web típica em HTML está sendo desafiada por tecnologias que permitem interfaces ricas que comunicam com um backend através de serviços. As ferramentas existentes para criar aplicações web ainda não adoptaram esta abordagem e o suporte existente é omissa em oferecer programadores ferramentas dinâmicas e fáceis de usar. Web Services tradicionais baseados em SOAP e Representacional State Transfer (REST) são alternativas para a comunicação entre o frontend e no backend. O REST ganhou recentemente visibilidade e a sua menor dificuldade de aprendizagem parece adequada para muitas aplicações. No entanto, a falta de normas leva a implementar serviços REST de muitas formas diferentes, mesmo na mesma plataforma, não existindo um acordo comum sobre como descrevê-los. Nesta dissertação, propomos uma nova framework para o desenvolvimento rápido de aplicações baseadas em REST. Para esse efeito, especificações e serviços de administração são apresentadas a fim de resolver os problemas de configuração de uma camada de serviços baseada em REST. Além disso, é apresentada uma nova abordagem para processar os pedidos, permitindo também a aplicação dos princípios AOP. Finalmente, é apresentada a implementação de uma framework que suporte estas especificações. Neste âmbito, temos por objectivo expor as potencialidades dinâmicas desta framework, tendo em vista a maximização da produtividade do programador na criação de aplicações baseadas em REST, minimizando o reinício do servidor e suportando dinamicamente uma ampla gama de mudanças.