68 resultados para Troca de Conhecimento


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho constitui-se em um estudo acerca da construção do conhecimento do tema Marketing Metrics dentro da disciplina de marketing, centrando-se na linha de pesquisa de Valor do Cliente, uma das cinco principais que estão sendo trabalhadas sobre o tema. Assim, o autor deste trabalho realizou um estudo exploratório dividido em duas etapas, uma de análise da bibliografia acerca do Marketing Metrics em diversos centros acadêmicos e outra de verificação empresarial para analisar o grau de conhecimento e avaliação da importância do tema na visão empresarial. Ao final, o autor chega a um modelo sobre a construção de conhecimento do tema pesquisado e suposições a serem futuramente testadas, incluindo a influência de fatores como a natureza do negócio em que está inserida, o tamanho da base de clientes, a necessidade de uso do produto ou serviço, as barreiras de saída e o tamanho da empresa no grau de necessidade de relacionamento com os clientes, bem como a influência deste na busca do conhecimento acadêmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A rapidez com que as informações atualmente são processadas nas empresas, associada à necessidade de adequação às tendências impostas pelo mercado e à introdução sempre crescente de novos recursos tecnológicos, caracteriza o cenário sobre o qual deve ser analisada a escolha da estratégia de produção para alcançar competitividade. A necessidade de gerenciar a estrutura do conhecimento empresarial (aspectos internos) e sua vinculação com a formação da estratégia de produção, assim como a necessidade de empregar métodos de inteligência competitiva (captura de informações externas), são aspectos imprescindíveis a serem considerados na complexa atividade de administar as empresas na atualidade. O problema principal tratato nesta pesquisa é o de determinar a importância que a gestão do conhecimento e a inteligência competitiva assumem na estratégia de produção em curtumes, incluindo a verificação se os sistemas de informação que suportam estas atividades estão alinhados com a estratégia empresarial. Pela exploração de diversos aspectos da indústria coureira em dois estudos de caso, e principalmente relacionando os elementos observados com as possibilidades atuais de utilização dos recursos da tecnologia de informação nas áreas de gestão do conhecimento e inteligência competiva, foi observado que estas são complementares e influenciam na estratégia de produção. Complementarmente, foi constatado que os sistemas de informação, ao constituirem instrumental básico para estas atividades, necessitam estar comprometidos em suas funcionalidades com a estratégia empresarial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste estudo, de caráter etnográfico, foi investigado o processo participativo enquanto tomada de decisão e condição para a construção do conhecimento no processo ensino-aprendizagem que ocorre na escola e especialmente no interior da sala de aula. Partindo de experiências participativas com os alunos, o autor (pesquisador), entende que é possível proporcionar condições para que os alunos participem ativa e efetivamente da construção de sua aprendizagem, e portanto, da construção do conhecimento. Neste trabalho dissertativo, fica claro que a participação ativa e efetiva do aluno no processo ensino-aprendizagem, só acontece, se for possível sua decisão a níveis de planejamento, de execução e de avaliação. Através da pesquisa de campo (observação participante e entrevistas), foi mostrada a compreensão que os sujeitos da pesquisa possuem sobre o significado da participação do aluno no processo ensino-aprendizagem. Este trabalho mostrou que os professores observados e entrevistados possuem um entendimento apolítico do que seja participar, e os alunos, possuem um desejo latente de participarem, de tomarem decisões significativas a níveis de planejamento, de execução e de avaliação. Na construção deste trabalho dissertativo, fica evidente que a escola precisa desenvolver o germe da participação, para que haja produção do conhecimento e para o desenvolvimento da competência política do aluno enquanto cidadão. É fundamental, à escola e aos/às professores/as, não só ensinar a participação e a democracia, mas ensinar pela participação e pela democracia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os debates e estudos sobre a importância do conhecimento organizacional têm sido cada vez mais freqüentes nos últimos anos. As empresas e universidades de negócios consideram a Gestão do Conhecimento uma vantagem competitiva para as organizações que conseguem estabelecer e aplicar modelos voltados para este fim. A bibliografia atual sobre este tema tem demonstrado duas tendências de propostas práticas para a Gestão do Conhecimento. A primeira enfatiza a importância do desenvolvimento de softwares responsáveis pela disseminação e estocagem dos conhecimentos organizacionais adquiridos de diversas fontes. A segunda, aplicada neste trabalho, é focada na capacidade e potencial dos indivíduos, e destaca a importância de criar e compartilhar conhecimentos através das pessoas. Este trabalho demonstra, a partir de um modelo de criação e gestão do conhecimento organizacional desenvolvido pelos professores Ikujiro Nonaka e Hirotaka Takeuchi, e denominado "Espiral do Conhecimento", uma aplicação prática de Gestão do Conhecimento numa equipe de representantes de vendas de uma indústria farmacêutica. Evidenciam-se, como conseqüência desta adaptação, novas rotinas do processo de "Espiral do Conhecimento", apresentando-se melhorias qualitativas e quantitativas nos resultados da equipe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perícia é a capacidade de aplicar habilidades intelectuais para resolver problemas em domínios estratégicos, com um desempenho e qualidade de solução superior à média dos profissionais da área. Ampliar a compreensão do que é a perícia fornece suporte e justificativas para a proposição de novos recursos para aquisição e modelagem de conhecimento na área da Engenharia de Conhecimento. Esta tese apresenta os resultados de um estudo sobre a perícia em Geologia, em especial numa aplicação em Petrografia Sedimentar. A tarefa em questão é especialmente significativa porque, ao contrário das tarefas típicas, cujo estudo tem levado ao desenvolvimento de diversas metodologias de aquisição de conhecimento, essa tarefa aplica primariamente raciocínio baseado na análise de imagens e, secundariamente, busca e métodos analíticos para interpretar os objetos da perícia (no caso, rochas-reservatório de petróleo). O objetivo deste projeto de tese é a identificação dos recursos cognitivos aplicados por especialistas na solução de problemas, que são essencialmente de reconhecimento visual e a representação do que é reconhecido. A interpretação dessas habilidades fornece fundamentos para a proposta de novos recursos para aquisição e modelagem, e posterior desenvolvimento de sistemas especialistas para interpretação de rochas. Também contribuem para o tratamento da perícia em outros campos que possuam o mesmo caráter de reconhecimento visual tal como a interpretação de rochas. O estudo foi desenvolvido em duas fases. Na primeira, o conhecimento foi eliciado de um especialista em Petrografia Sedimentar e estruturado, utilizando técnicas tradicionais de aquisição de conhecimento. A segunda fase envolveu o desenvolvimento de um experimento com dezenove geólogos com diferentes níveis de perícia, para identificar os tipos de conhecimentos que suportam a perícia e quais os métodos de solução que são aplicados nos altos níveis da perícia. O estudo das habilidades cognitivas demonstrou que especialistas em Petrografia sedimentar desenvolvem uma grande variedade de formas mentais e hierarquias que diferem daquelas normalmente descritas na literatura da área. Especialistas retém ainda um grande conjunto de abstrações simbólicas de imagens, denominados aqui de pacotes visuais. Os pacotes visuais possuem importante papel na indexação das estruturas mentais e na condução do processo de inferência. As representações são tipicamente associadas com seus próprios métodos de solução de problemas adequados à complexidade da tarefa de caracterização de reservatórios. A aplicação desses recursos faz parte do conjunto de conhecimentos tácitos dos especialistas. A associação de grafos de conhecimento e a análise de casos mostrou-se, neste trabalho, um método adequado para a externalizar e adquirir o conhecimento declarativo e as relações causais, as quais não são evidenciadas com as técnicas de aquisição de conhecimento tradicionais. Métodos de solução de problemas, por sua vez, foram eliciados com o auxílio das bibliotecas de solução de problemas disponíveis na literatura e grafos de conhecimento. O modelo de representação, aqui proposto, expressa o conhecimento em dois níveis: o nível da externalização, compatível com o conhecimento de um intermediário em Petrografia Sedimentar, e o nível da inferência, que modela o conhecimento tácito do especialista. Esta tese apresenta de forma inédita o conceito de pacote visual como uma primitiva de representação e um conjunto de métodos de solução de problemas adequados à interpretação de rochas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe a definição de um Sistema de Valores de Troca para modelar as trocas sociais entre agentes em sociedade artificiais. Esse sistema é baseado na Teoria das Trocas de Valores de Jean Piaget e é composto por uma algebrá de valores de troca, que indica como esses valores devem ser representados e manipulados, por um mecanismo de raciocínio social baseado em vaores de troca e por estruturas capazes de armazenar e manipular tais valores. Nesse sistema, os valores de troca são vistos tanto como elementos motivadores das interações quanto como elementos reguladores responsáveis pelo equilíbrio e continuidade das trocas sociais. Acredita-se que o istema proposto é capaz de melhorar a modelagem das interações. É mostrado, também, como o sistema de valores proposto pode ser integrado com modelos de interação existentes na literatura de sistemas multiagente; Para isso, foram escolhidos dosi modelos práticos de organização dinâmica - o Redes de Contrato e o Modelo de Coalizões Baseadas em Dependências. Para demonstrar comomo o sistema de valores pode ser aplicado na modelagem e na simuulação de situações reais, é descrito um cenário para experimentação, no qual o sistema proposto é utilizado para modelar, de forma simplificada, o processo de lobby atrtavés de contribuições para campanhas políticas. Com este cenário pretende-se observar, além da dinâmica dos valores de troca, a capacidade do sistema em modelar caraterísticas mais subjetivas das interações (normalmente observadas nas relações humanas), e, ao tempo tempo, prover elementos reguladores, instrurmentos para a continuidade das interações e trocas sociais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo como perspectiva compreender de forma mais aprofundada os fenômenos que ocorrem na escola, principalmente em relação à educação física, procuro, neste estudo, identificar que conhecimentos sustentam a prática pedagógica do professor de educação física da escola pública, da rede estadual de ensino nas aulas de 5a a 8a séries. Neste sentido, inicialmente realizei uma revisão bibliográfica que permitiu um aprofundamento nas questões sobre a escola pública. Num segundo momento, identifiquei as principais características das aulas de educação física ministradas para o ensino fundamental de 5a à 8a séries onde, tanto a minha experiência profissional como a dos autores consultados, apontavam para a utilização do modelo de esporte de alto rendimento. Em seguida, descrevi a metodologia utilizada que centrou-se na perspectiva qualitativa de um estudo etnográfico envolvendo dezesseis professores e seis escolas da rede pública estadual de ensino na cidade de Porto Alegre. Os instrumentos de coleta de informações foram a observação das aulas, a entrevista semi-estruturada com os professores participantes do estudo e os diários de campo. Realizei as interpretações do estudo que foram realizadas através da técnica de triangulação dos dados, entre as observações, as entrevistas e o referencial bibliográfico. Dividi a descrição das interpretações em três capítulos denominados: concepções teóricas que compõem o conhecimento pedagógico do professor de educação física; a trajetória do professor de educação física: a formação e a experiência; e o cotidiano do professor de educação física. Pude identificar que o conhecimento pedagógico do professor de educação física tem sua origem na formação pessoal e profissional, onde as experiências de vida e esportiva, a formação inicial e a formação permanente sustentam uma visão tradicional de sociedade, de educação, de escola e de educação física, onde o conteúdo esportivo é o principal modelo, refletindo aspectos competitivos e de rendimento pregados pela ideologia dominante, enquanto que a experiência docente é o fator orientador principal da prática pedagógica utilizada pelos participantes do estudo, que refletem sobre o seu espaço físico, as características das turmas e dos alunos, e o material utilizado nas suas atividades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.