921 resultados para Avaliação de banco de dados
Resumo:
o ambiente econômico atual tem exigido empenho das empresas em conhecer, interagir, diferenciar e personalizar cada vez mais produtos e serviços para os clientes. Este cenário requer ferramentas e modelos de gestão para gerenciar as relações com os clientes, com o objetivo de permitir que a empresa consiga perceber e responder rapidamente a exigências dos consumidores. Este trabalho revisa conceitos de CRM (Customer Relationschip Management ou Gerenciamento das Relações com os Clientes) e descreve a implementação de ferramenta de gestão de relacionamento com clientes em empresa de consórcio. O desenvolvimento do trabalho reflete uma necessidade apontada no planejamento estratégico da empresa, sendo que ferramentas de tecnologia de informação e software de banco de dados foram usadas como suporte aos propósitos da gestão empresarial. Como resultado do trabalho, a empresa está hoje atuando com um sistema de Data Base Marketing, o qual foi criado para auxiliar os profissionais envolvidos no processo de atendimento e gestão de relacionamento com clientes. O Data Base Marketing esta sendo utilizado para coletar dados de atendimento a clientes, tais como históricos de atendimento, dados cadastrais, perfil demográfico, perfil psicográfico e categoria de valor dos clientes. Durante o processo de interação com clientes, o sistema facilita o trabalho dos especialistas e permite melhorar a qualidade do atendimento aos clientes, contemplando necessidades dos diversos especialistas da empresa em assuntos como vendas, qualidade em serviços, finanças e gestão empresarial.O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O projeto contou com o conhecimento do negócio dos profissionais da empresa e auxilio de especialistas e consultores externos. O detalhamento do projeto, bem como os passos da pesquisa-ação, está descrito no corpo da dissertação.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.
Resumo:
A presente dissertação apresenta um levantamento de dados sobre acidentes de trabalho feito a partir de informações extraídas de um documento denominado CAT (Comunicação de Acidente de Trabalho). Com base neste documento, analisaram-se informações referentes à empresa, ao acidentado e acidentes de trabalho registrados no setor metalúrgico e metalmecânico do estado do Rio Grande do Sul nos anos de 1996/1997. Após a coleta dos dados, procedeu-se ao armazenamento dos mesmos em um software de banco de dados que permite analisar as informações levantadas no intuito de melhor conhecer a magnitude, natureza e distribuição dos acidentes. O estudo, deixa evidente a insalubridade do ambiente de trabalho do acidentado devido à quantidade de registros causados pôr ruído (principalmente fábricas de cutelaria) e DORT (Doenças Osteomusculares Relacionadas ao Trabalho). Há também grande incidência de impacto sofrido pêlos acidentados, devido a ferramentas, peças e máquinas. Os metalúrgicos foram a categoria profissional que mais acidentes de trabalho registraram. No entanto, os soldadores apresentaram um dado curioso, pois sofreram muitos acidentes pôr impacto sofrido, devido a queda de tubos, canos e barras, fora de seu posto de trabalho ou de suas atividades tradicionais de solda Fica evidente que, além da falta de organização do posto de trabalho do acidentado, existe a própria desorganização do trabalho. Os profissionais atuam fora de seu posto e em tarefas que não são características de sua função, fatores que provavelmente contribuem para o aumento de riscos de acidentes. Com os resultados obtidos neste trabalho, pretende-se sensibilizar as empresas para que tomem medidas mais eficientes a fim de minimizar os riscos aos quais os trabalhadores estão envolvidos e expostos.
Resumo:
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
Resumo:
Fotografias aéreas verticais de pequeno formato foram obtidas através de câmera fotográfica não-métrica a bordo de aeronave de pequeno porte, no ano de 1999, com o objetivo de se atualizar um conjunto de seis plantas cadastrais digitais de 1984, na escala 1:5.000, cobrindo a área urbana do município de Gramado, situado na região nordeste do Estado do Rio Grande do Sul, Brasil. As fotografias foram digitalizadas, armazenadas e georreferenciadas em um Sistema de Informações Geográficas. Posteriormente, foram digitalizados os perímetros das edificações e os limites dos bairros da área urbana nas plantas cadastrais digitais. Os dados atualizados das plantas cadastrais foram elaborados para a geração de análises temáticas e, portanto, não podem ser utilizados para a medição precisa das edificações mapeadas. Após sua digitalização, os polígonos das edificações foram estruturados topologicamente por meio do SIG utilizado, permitindo a geração automática de um centróide para cada edificação mapeada. A consulta ao banco de dados tornou possível o cálculo do número total e a localização dos centróides das edificações, para as duas datas estudadas. Os dados tabulados foram representados por um mapa temático da expansão da ocupação urbana, na escala de 1:25.000. Outros produtos obtidos no presente estudo foram cartas-imagem da área urbana (1:50.000), elaboradas a partir de imagens do satélite LANDSAT 7 ETM+, bem como mapas temáticos dos aspectos físicos e antrópicos dos bairros da área urbana (escalas 1:15.000 a 1:25.000). Com base nos dados obtidos, verificou-se um crescimento de 164, 6 % do número total de edificações e uma expansão da ocupação orientada para a região SE da área urbana, em função do maior crescimento do setor secundário e do número de loteamentos na região meridional da área urbana durante o período de 15 anos. Através da interpretação dos dados geográficos, foram elaboradas recomendações para o planejamento urbano de Gramado.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Censo da produção de flores e plantas ornamentais no Rio Grande do Sul : Brasil na virada do milênio
Resumo:
A Floricultura é um setor do agronegócio gaúcho que tem propiciado o crescimento econômico e social do Estado. Com o objetivo de trazer subsídios para o desenvolvimento da produção de Flores e Plantas Ornamentais (FPO) no Rio Grande do Sul e para a organização de sua Cadeia Produtiva, foi realizado em 2000 o levantamento da produção, com abrangência a nível de Estado. Foram registradas 560 Unidades Produtivas (UP), distribuídas em 133 municípios gaúchos. Com os resultados obtidos, foi desenvolvido o Cadastro Eletrônico dos Produtores de Flores e Plantas Ornamentais do RS – 2000, um banco de dados em compact disc (CD), contendo a lista de plantas e produtos sob produção, com respectivos nomes e endereços das UPs de FPO do Estado. Comparando os dados de 2000 com os do censo realizado em 1996, a área de cultivo aumentou de 304 para 609 ha, com módulo médio de produção de 1,09 ha. Acompanhando a expansão de área de cultivo, o volume de produção de todas as categorias de produtos foi superior em 2000. Os resultados demonstram uma forte demanda em assistência técnica especializada e a necessidade de melhorar a capacitação profissional da mão-de-obra de apoio.
Resumo:
A helmintosporiose, incitada por Drechslera avenae (teleomorfo, Pyrenophora avenae), constitui fator limitante à produção e à qualidade do grão de aveia (Avena sativa L). A caracterização biológica e molecular da interação aveia - D. avenae pode contribuir para o manejo e a determinação de estratégias de controle da doença. Para a caracterização biológica, foram avaliadas trinta cultivares de aveia quanto à percentagem de área foliar com sintomas da doença e o tipo de lesão, inicialmente sob condições de inoculação artificial com três isolados do fungo e, após, no campo, sob condições naturais de infecção. Os resultados demonstraram haver interações significativas entre os genótipos da planta e isolados do patógeno. Classificaram-se como mais resistentes ao fungo OR 4, UFRGS 7, UFRGS 14, UFRGS 18 e UPF 19. Para a caracterização molecular da interação, cinco genótipos (CTC 5, ORLA 975, preta-comum, UFRGS 18 e UPF 17), não inoculados e inoculados com dois isolados do fungo, foram investigados para a análise de expressão diferencial de genes após 12, 24 e 72 horas após a inoculação. A partir do RNA total extraído das plantas submetidas aos tratamentos, realizaram-se a síntese de cDNA (RT-PCR), o isolamento de cDNAs expressados diferencialmente e a produção de sondas para a verificação de mRNAs induzidos, os quais foram hibridizados por meio de “Southern blot” e “Reverse Northern”. Foram observadas diferenças na expressão de genes, em nível de mRNA, entre plantas sadias e infectadas, tendo-se obtido sete fragmentos de cDNAs relacionados à interação com D. avenae, os quais foram comparados quanto a sua similaridade com seqüências depositadas no banco de dados do Genbank. Pela análise de “Reverse Northern”, pôde-se identificar um cDNA denominado E3-IFCO, relacionado com a resposta de defesa da planta.