998 resultados para Marketing de banco de dados
Resumo:
Visando um envelhecimento ativo, a psicomotricidade assume importante papel na promoção de saúde do idoso através de diferentes dimensões, tais como, preventivas, educativas e reeducativas, proporcionando benefícios biopsicosso ciais, e consequentemente Qualidade de vida. O objetivo desta pesquisa foi investigar se o nível de qualidade de vida da terceira idade é influenciado pelo ensino de exercícios psicomotor es como estratégia de educação em saúde. Tratou3se de um estudo descritivo com abordagem qua ntitativa e delineamento quase experimental apenas com o pós3teste. A amostra foi composta por 40 idosos (20 ativos e 20 inativos), com características biodemográficas seme lhantes. Utilizou3se um formulário biodemográfico, o instrumento WHOQOL3 bref e a escala de Berg . Para tratamento estatístico e formação do banco de dados, foi utilizado o SPSS® 15.0. Os resultados mostraram que os domínios presentes no construto qualidade de vida ( físico, psicológico, relações sociais e ambiental) e a qualidade de vida total apresentaram diferenças estatísticas significantes entre idosos ativos e inativos (p≤0,05), bem como no test e de Berg, que foi favorável aos idosos ativos quanto ao equilíbrio funcional, com uma dife rença de 7,5 da pontuação média e representando menor risco de quedas. Desta forma, c onclui3se que a prática de exercícios psicomotores é indicativa de melhor qualidade de vida.
Resumo:
Nesse trabalho investigamos de que maneira a escola vem desenvolvendo as questões referentes à educação ambiental enquanto tema transversal e interdisciplinar. Levantamos informações sobre como a Educação Ambiental vem sendo desenvolvida na prática pedagógica de uma escola da rede pública estadual da cidade de Mossoró/RN - Brasil. Onde foi identificada a percepção dos atores envolvidos no processo de educação ambiental, a saber: o nível de consciência ecológica, manifestada pelos alunos, suas práticas em relação aos problemas ambientais vivenciados; a abordagem do docente, frente à temática; bem como a percepção dos representantes do poder, como o professor, a diretoria da escola, a secretária de educação do estado e gerente de meio ambiente do município de Mossoró – RN. Contando com um apanhado bibliográfico com autores como Saviani (2008), Dias (2004), Gadotti (2008), Paulo Freire (1991), Sato (2012), Loureiro (2004), Leff (2010), entre outros. Para essa investigação utilizamos uma abordagem qualitativa e quantitativa, sendo desenvolvido 4 entrevistas com os representantes do poder e um questionário que foi aplicado com os alunos da escola, depois de respondidos esses dados foram tabulados em planilhas do Excel a fim de serem lançados para análises estatísticas, logo em seguida foram tratados através da construção de um banco de dados na planilha eletrônica Microsoft Excel. Após a digitação da base de dados, o banco foi exportado para o software SPSS versão 13.0 no qual foi realizada a análise. Para análise dos dados foram calculadas as frequências observadas e percentuais das percepções dos alunos acerca do julgamento, procedimentos utilizados pela escola, itens associados, problemas e temas relacionados ao meio ambiente. Além das frequências calculadas foram construídos os gráficos para cada distribuição. Já a análise qualitativa de conteúdo possui como estratégia de análise a interpretação qualitativa de emparelhamento de dados. Percebemos que nossos sujeitos acreditam que a educação ambiental vem como instrumento para modificação de comportamentos humanos, é através da educação que modificamos atitudes e conscientizamos a nossa população aos cuidados para com o nosso planeta. Nesta investigação identificamos que 83,1% dos alunos disseram estar bastante consciente da problemática ambiental, e ainda, 71,8% dos discentes disseram que estão bastante motivados para desenvolver projetos de educação ambiental na sua escola. Todavia não foi constatado isso pelos representantes do poder os quais afirma que esses não possuem o nível de consciência ecológica identificada pelos alunos, podendo perceber uma visão crítica por parte dos representantes do poder a respeito da temática, diferente dos discentes que dizem ter consciência, contudo suas práticas não condizem com a realidade. Acreditamos que se a Educação Ambiental fosse introduzida como componente curricular obrigatória essa poderia ser trabalhada de maneira mais direta e contundente a fim de formamos cidadãos verdadeiramente consciente da questão ambiental, uma vez que essa deve ir além dos muros da escola, a questão ambiental é uma questão também social, necessitamos de intervenções a nível global afim de todos contribuírem de maneira significativa para sustentabilidade.
Resumo:
INTRODUÇÃO: O vírus linfotrópico para células T humanas (HTLV-1) é o principal agente causador da Paraparesia Espástica Tropical / Mielopatia associada ao HTLV-1 (PET/MAH) e da Leucemia da célula T do Adulto (LTA). A maioria dos indivíduos infectados permanece assintomática, somente 2 a 5% irão desenvolver uma das duas doenças. Fatores da interação HTLV-1/ hospedeiro estão envolvidos no risco de desenvolver doença. A lesão neurológica na PET/MAH parece ser consequência de uma reação inflamatória, desencadeada pelo reconhecimento de células infectadas por linfócitos T citotóxicos, com consequente liberação de citocinas e lesão medular. OBJETIVO: Identificar marcadores genéticos, que possam ajudar no prognóstico e tratamento dos pacientes portadores do HTLV-1. MÉTODOS: Nas amostras de 117 portadores do HTLV-1 assintomáticos e 171 pacientes com acometimento neurológico em acompanhamento na cidade do Rio de Janeiro, foram realizadas as tipificações dos genes do HLA Classe I e II, dos polimorfismos dos genes das citocinas -308TNF-\03B1,-174IL-6, +874IFN-\03B3, códon 10 e 25TGF-\03B21 e -1082 - 819-592IL-10, e a quantificação da carga proviral. Os dados foram organizados em um banco de dados no programa SPSS. As frequências alélicas e genotípicas foram obtidas por contagem direta. O equilíbrio de Hardy-Weinberg foi avaliado para os polimorfismos das citocinas no sitio http://bioinfo.iconcologia.net/ubbweb/SNPStats_web, em relação ao HLA foram utilizadas as ferramentas disponíveis no sítio \201CLos Alamos HIV database tools\201D. As comparações entre os grupos foram realizadas através de tabelas de contingência 2x2 (quiquadrado, exato de Fisher e odds ratios), valores de p\22640,05 foram considerados significantes RESULTADOS E CONCLUSÕES: O alelo A*02 não influencia a condição clínica nem os níveis da carga proviral. Os alelos A*29 e B*44 foram mais frequentes entre os indivíduos assintomáticos e a sua presença influenciou os níveis da carga proviral sugerindo proteção ao desenvolvimento de doença neurológica. O alelo A*68 foi mais frequente entre os pacientes com doença neurológica, porém sua presença não influenciou nos níveis da carga proviral. O alelo C*04 foi mais frequente entre os portadores assintomáticos e não influenciou os níveis de carga proviral, já o alelo DRB1*03 predominou entre os pacientes com doença neurológica e a sua presença entre os indivíduos assintomáticos acarretou níveis mais elevados de carga proviral, sugerindo ser um possível fator de risco para o desenvolvimento de doença neurológica. Na análise do polimorfismo genético das citocinas, o polimorfismo de IL-10, com perfil fenotípico de baixo produtor da citocina foi mais frequente no grupo dos assintomáticos, enquanto que o fenótipo de produtor intermediário predominou entre os sintomáticos. O perfil fenotípico da população estudada foi caracterizado como: baixo produtor da citocina -308TNF-\03B1, intermediário a alto produtor para códon 10 e códon 25 TGF-\03B2, baixo a intermediário produtor para -1082,-819,- 592 IL-10, alto produtor para -174 IL-6 e baixo a intermediário produtor para +874IFN-\03B3
Resumo:
A capacidade de inovação é essencial à sobrevivência de empresas criativas de software. Assim, a criação e disseminação do conhecimento encontram cada vez mais espaço no planejamento e na estratégia de gestão dessas organizações. Este estudo, de natureza exploratória, efetuou entrevistas semi-estruturadas com profissionais gestores e técnicos da indústria criativa de software, tendo por objetivo analisar as técnicas e métodos presentes no processo de geração e disseminação do conhecimento, bem como as ferramentas de tecnologia da informação voltadas a essa finalidade. Os principais resultados mostram que há uma preocupação constante nessas organizações com a geração do conhecimento. As técnicas e métodos mais largamente empregados na criação e disseminação de conhecimento foram: brainstorming, reuniões presenciais, reuniões virtuais, treinamentos oficiais presenciais, treinamentos informais, cursos em universidades, compartilhamento de experiências, discussões e aplicativo de gestão de projetos de desenvolvimento de software. Já em relação às ferramentas utilizadas, somam-se: internet, intranet, aplicativos específicos, redes internas, repositórios de dados, diretórios específicos no banco de dados e sistemas de telefonia baseados na internet.
Resumo:
Dissertação apresentada ao Programa de Pós-Graduação em Administração – Mestrado como requisito parcial para obtenção do título de Mestre em Administração.
Resumo:
O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.
Resumo:
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
O objetivo principal desse trabalho é apresentar uma alternativa para a união de um modelo de versões e dados temporais. O resultado, o Modelo Temporal de Versões – TVM (Temporal Versions Model), é capaz de armazenar as versões do objeto e, para cada versão, o histórico dos valores das propriedades e dos relacionamentos dinâmicos. Esse modelo difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais sem tempo e versionamento, o que permite a integração deste modelo com outros modelos existentes. A utilização de um modelo de dados temporal semanticamente rico não requer necessariamente a existência de um SGBD próprio para este modelo. A tendência é implementar o modelo sobre banco de dados convencionais, através do mapeamento das informações temporais para atributos explícitos. Como objetivo complementar, é apresenta do um ambiente para o suporte do TVM e de todas suas características. Especificamente, são detalhados o mapeamento da hierarquia base do modelo para um banco de dados objeto-relacional e sua implementação em um banco de dados comercial. Desse ambiente, foi implementado um protótipo da ferramenta para o auxílio na especificação de classes da aplicação.
Resumo:
Um dos requisitos naturais na modelagem de diversas aplicações na área de banco de dados é a utilização de um mecanismo para controle de versões. Esse mecanismo fornece suporte a um processo evolutivo. Tal suporte permite armazenar os diferentes estágios de uma entidade em tempos distintos, ou sob diferentes pontos de vista. Estudos recentes nessa área mostram a importância de incorporar ao modelo conceitual de banco de dados, um mecanismo para auxiliar no controle da evolução de versões. A evolução de versões apresenta problemas principalmente quando ocorre em uma hierarquia de composição. Por exemplo, se existem objetos compostos fazendo referência à objetos componentes que representam versões, então modificações nos componentes podem causar alterações nos objetos que os referenciam. Normalmente as ações relativas a essas modificações são a notificação ou a propagação de mudanças. Algumas propostas adicionam mecanismos de notificação e propagação ao modelo conceitual utilizado por aplicações não convencionais. Isso é importante porque mecanismos deste tipo auxiliam no controle da integridade de dados e na divulgação de informações sobre as mudanças realizadas no banco de dados. O objetivo do trabalho aqui descrito é apresentar um mecanismo de notificação e propagação, que trata da evolução de dados, para um modelo de versões. É definido um modelo de classes com propriedades e operações que permitem manter e manipular subscrições de eventos referentes à evolução de objetos e versões e reagir diante da ocorrência destes eventos. Para atender os requisitos das diferentes aplicações, esta proposta especifica três estratégias. Cada uma delas apresenta diferentes funcionalidades: notificação ativa (enviar mensagens sobre mudanças ocorridas); notificação passiva (armazenar informações sobre mudanças ocorridas) e propagação (alterar o conteúdo do banco de dados automaticamente). Para validar o mecanismo proposto, uma implementação é apresentada para o sistema Oracle 8.
Resumo:
Proponho, com este trabalho, uma análise da variação da manutenção da marca de concordância verbal de segunda pessoa do singular em Pelotas (RS). Considero, para tanto, os aspectos lingüísticos e, sobretudo, os aspectos sociais dessa variação. Almejo, assim, auxiliar na descrição de fenômenos de concordância verbal. Apóio esta análise na Teoria da Variação Laboviana e em visões de classes sociais que levam em conta princípios socioeconomicistas, marxistas, econolingüísticos, ocupacionais e das condições estruturais de manutenção das desigualdades sociais. Analisei dados de concordância de segunda pessoa do singular em noventa entrevistas do Banco de Dados Sociolingüísticos Variáveis por Classe Social – VarX – que foram realizadas em Pelotas (RS) em 2000 e 2001. O VarX possui uma divisão equilibrada de informantes por gênero, faixa etária e classe social. Das entrevistas realizadas na casa do informante, afloram falas espontâneas sobre histórias familiares, peripécias do passado. Utilizei, para a análise dos dados, metodologia quantitativa com base na interface Windows para o Varbrul e em formulário de codificação de dados. Além dos dados de fala do VarX, utilizei como fonte de pesquisa o Questionário do VarX e os resultados do Censo 2000 do IBGE. Os resultados, com relação à concordância de segunda pessoa do singular em Pelotas, apontam na direção de que: ocorra apagamento variável da desinência número-pessoal em virtude de uma regularização do paradigma verbal em que são privilegiadas formas neutras; o apagamento da marca de segunda pessoa do singular sofra influência de condicionadores lingüísticos (saliência fônica, interlocução entrevistado/entrevistador, ausência do pronome-sujeito e tipo de frase) e sociais (há indícios de que: a utilização de marca tenha prestígio, mas sua não-utilização não sofra estigma; o fenômeno esteja em fase de consolidação e se configure como uma mudança lingüística quase completada; as mulheres resistam ao processo de apagamento da marca de concordância mais do que homens).
Resumo:
Analisa com métodos cienciométricos a relação entre algumas características de uma amostra de periódicos de Física e os valores de Fator de Impacto (FI) publicados no Journal Citation Reports (JCR), no período de 1993 a 2000. As características estudadas são: sub-área do conhecimento, evolução temporal, tipo e tamanho do periódico, densidade dos artigos e ritmo de obsolescência da literatura. A amostra foi constituída de modo não aleatório, abrangendo todos os títulos classificados pelo Journal Citation Reports (JCR) como sendo de algumas sub-áreas da Física: Física; Física Aplicada; Física Atômica, Molecular e Química; Física da Matéria Condensada; Física de Fluídos e de Plasmas; Física Matemática; Física Nuclear; Física de Partículas e Campos; Ótica; e, Astronomia e Astrofísica. Ao total analisou-se 376 periódicos. Foi elaborado um banco de dados no programa Statistics Packet for Social Science (SPSS) versão 8.0 para a coleta das informações necessárias para a realização do estudo, bem como para o tratamento estatístico das mesmas. As hipóteses de trabalho foram testadas através da Análise de Variância (ANOVA), do Teste χ2 e da Dupla Análise de Variância por Posto de Friedman. As análises empreendidas resultaram na comprovação das seis hipóteses de trabalho à medida que foi verificado que as variáveis: tipo, tamanho, densidade, ritmo de obsolescência, sub-área e tempo influenciam, umas em maior grau, outras com menor intensidade, os valores de FI. Especificamente, destaca-se que o tamanho e o ritmo de obsolescência são as características dos periódicos que se correlacionam mais fortemente com o FI. A densidade apresentou o menor poder explicativo das diferenças existentes entre o impacto das publicações. O aspecto mais relevante verificado está na existência de associação entre sub-área e FI. As cinco sub-áreas que se distinguem das demais são: a Óptica e a Física Aplicada por apresentarem valores médios baixos de FI; e a Física de Partículas e Campos, a Física Atômica, Molecular e Química e a Física Nuclear devido às médias altas. O estudo conclui que o FI deve ser utilizado somente de modo contextualizado e relativizado.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.