7 resultados para Delphi

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A população dos municípios do litoral norte do Rio Grande do Sul vem crescendo nas últimas duas décadas (IBGE, 2004). Em conseqüência, disso, começaram a surgir diversos problemas ambientais nessa região. Com o objetivo de avaliar o impacto ambiental produzido por esse crescimento foi criado, de forma inédita, um método para aferir o Índice de Qualidade de Praia (IQP), constituído por cinco indicadores, são eles: limites de segurança de praia, plano de manejo de dunas, balneabilidade da água, qualidade sanitária da areia e adequação da disposição final dos resíduos sólidos. Esse método foi testado na zona de balneário do município de Capão da Canoa, no período de dezembro de 2001 a março de 2002. Para tanto, foram atribuídos pesos para cada indicador por parte dos atores – técnicos, turistas e residentes – por meio do método de pesquisa de opinião-técnica Delphi. O somatório do produto do peso pela nota de cada indicador (0 ou 1), resultou numa classificação da praia do tipo C. Nessa categoria a balneabilidade é imprópria para banho. Não existe programa de limites de segurança de praia. Já a qualidade da areia é satisfatória, há área adequada para o depósito dos resíduos sólidos e há plano de manejo de dunas em funcionamento. De acordo com esse resultado, pode-se sugerir uma agenda de ações mitigadoras, ordenadas por prioridades, tendo em vista a gestão ambiental. Essa agenda e a avaliação confirmada com base no IQP pode, a longo prazo, contribuir para melhorar a qualidade de vida dos freqüentadores das praias, diminuir a degradação do ambiente costeiro e medir as melhorias implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.