881 resultados para Banco de dados e Sistemas de Informação em Saúde
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.
Resumo:
Esta tese teve como objetivo entender em que condições se dá o processo de interação entre o trabalho e três sistemas de informação (SIs) utilizados em duas instituições bancárias no Brasil. Procurei compreender como os sistemas de informação são reconstruídos por seus usuários, nas práticas do trabalho, e como o trabalho é modificado pela inserção de novos sistemas. Utilizando procedimentos metodológicos baseados no estruturalismo, busquei a estrutura que subjaz às práticas adotadas pelos agentes, associadas aos sistemas e ao trabalho. A coleta de dados para a pesquisa foi realizada com base em 46 entrevistas semi-estruturadas realizadas com gestores de TI e usuários, pela observação do contexto organizacional e pelo exame de documentos referentes aos sistemas. Na análise dos dados, o diagnóstico e o estudo de 11 práticas me permitiram identificar quais as mais relevantes para a interação entre os agentes e os dispositivos, no que se refere a reconstruções de SIs e a modificações sobre o trabalho. Identifiquei, na pesquisa empírica, uma estrutura de arranjo operacional, que assegura a interação entre agentes e sistemas. Esse arranjo tem a forma de uma retícula de sobreposição das práticas, uma rede de relações. As práticas, em isolado, não garantem a interação entre o sistema e o trabalho. Essa interação é assegurada pela composição entre as práticas. Da interpretação desta estrutura manifesta, identifiquei uma estrutura subjacente à interação entre os sistemas e o trabalho. Alcancei-a buscando as explicações para cada prática. Nestas explicações, identifiquei conjuntos de elementos de poder e resistência, de confluência de interesses individuais e organizacionais e de conformismo e conformidade dos agentes com o que foi instituído pela organização. A análise destes conjuntos de elementos me permitiu chegar à tese sustentada por esta pesquisa: a interação entre os sistemas de informação e o trabalho é definida por uma estrutura de conversão recíproca. Esta conversão se dá pela humanização dos sistemas e pela tecnicização do trabalho. O ajustamento continuado, presente entre os sistemas de informação e o trabalho, faz com que a tecnologia se torne mais adequada ao contexto e que as pessoas estejam mais bem preparadas para lidar com a tecnologia. A estrutura de conversão recíproca tem a forma de um oroborus, a serpente que engole ou vomita a própria cauda e simboliza o que se regenera, se recria. Tal como o oroburus, a estrutura de conversão recíproca é uma auto-reconstrução.
Resumo:
Ao optar por redes locais (LAN - Local Area Networks) de microcomputadores, em lugar de ampliar os investimentos nos sistemas de grande porte que já possuem instalados, diversas empresas do setor bancário no Brasil estão adotando o conceito de downsizing, expressão que identifica a política de redução do porte dos equipamentos de informática utilizados para executar o processamento de informações corporativas. A adoção deste tipo de política, longe de ser uma ocorrência episódica, tem características de tendência geral para o setor nos próximos anos. Este trabalho faz uma investigação do alcance dessa tendência no setor bancário brasileiro e uma análise dos fatores que têm impulsionado a implementação de diferentes estratégias de downsizing de sistemas de informação
Resumo:
Os grandes avanços da tecnologia de informação têm provocado mudanças não só na velocidade e custos de processamento e transmissão de dados mas também nas estruturas organizacionais e nos sistemas de informação, de planejamento e controle. Na construção civil, ainda que em menor proporção que em outros setores mais "modernos" da economia, as mudanças já são visíveis. Através de pesquisa de campo junto a gerentes e diretores de empresas de construção civil que atuam no setor de edificações, procuramos identificar como as empresas têm gerenciado seus empreendimentos e como têm utilizado os sistemas de informações para apoio às decisões de seus administradores.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este trabalho visa obter e verificar empiricamente um meta-modelo que possa apoiar e aprofundar a compreensão do fenômeno da resistência a sistemas de informação. Tratase de uma pesquisa explanatória e quantitativa na qual faz-se, por meio de uma extensa revisão da literatura mundial, o levantamento e consolidação das principais teorias e modelos existentes sobre o tema. Dessa forma, buscando obter um melhor entendimento do problema de pesquisa, propõe-se um meta-modelo de fatores pertinentes ao comportamento de resistência a sistemas de informação. Neste modelo, considera-se um conjunto de aspectos que, embora já abordados anteriormente, em sua maior parte ainda não haviam sido testados empiricamente, quais sejam: (i) as características idiossincráticas dos indivíduos, (ii) os aspectos técnicos inerentes aos sistemas de informação, (iii) as características da interação sócio-técnica, (iv) as características da interação de poder e políticas e, finalmente, (v) as características das organizações nas quais a tecnologia e o homem estão inseridos e interagem entre si. O instrumento de pesquisa utilizado no trabalho foi um questionário estruturado, aplicado via Internet, com suas questões contextualizadas quanto aos sistemas de gestão empresarial ERPs: Enterprise Resource Planning Systems. Obteve-se um total de 169 respondentes, considerando-se uma amostra composta exclusivamente por gestores de tecnologia da informação (TI) brasileiros e que tenham vivenciado pelo menos uma experiência de implantação de sistemas ERP ao longo de suas carreiras. Uma vez realizada a coleta dos dados, foram empregados testes estatísticos relativos à análise fatorial, visando alcançar um modelo definitivo. A partir do novo modelo encontrado, por meio da validação proporcionada pela análise fatorial, cada fator identificado representou uma causa para o comportamento de resistência a sistemas de informação. Por fim, testou-se também hipóteses a partir do novo modelo identificado, verificando-se as relações entre a percepção direta dos gestores quanto à resistência e os diversos fatores considerados relevantes para a explicação deste comportamento. Como resultado do estudo, consolidou-se um modelo de análise do comportamento de resistência a sistemas de informação, baseado na percepção do gestor de TI e contextualizado nos sistemas ERPs.
Resumo:
A contextualização está em torno de atividades voltadas ao planejamento em função da organização se estruturar sobre bases tecnológicas e sistemicas para gerir os seus processos. A teoria sistêmica aplicada à organização gera a necessidade eminente de integração. Este processo recorre à necessidade de planos estratégicos, onde as definições e metodologias aplicadas devem seguir-se à disciplina focada aos processos que requerem decisão e execução na busca de metas definidas. Neste aspecto, a implantação de sistemas de informação como ferramentas auxiliares aos processos decisórios, eXigem uma sistemática ou metodologia para visualização dos resultados e uso dos mesmos como retorno ao processo de alimentação dos dados, geradores de novas conjecturas decisórias. É necessário o conhecimento básico da organização, o contexto em que a mesma se enquadra, e de que forma deveremos atuar em seu desenvolvimento Para esta adota-se etapas onde analisamos o empreendimento, políticas ou diretrizes organizacionais, a metodologia de implantação sistemicas, associada às reais necessidades da empresa, bem como sua infraestrutura e capacidade de esforço
Resumo:
O trabalho a seguir objetivou o desenvolvimento de um meta-modelo de análise para estudo do fenômeno da resistência durante a implementação de um sistema de gerenciamento eletrônico de documentos (GED). O estudo foi conduzido por meio de uma abordagem quantitativa e explanatória e buscou elencar os principais expoentes da literatura acadêmica no tema da resistência. A partir de suas concepções, os fatores mais relevantes no campo da resistência contextualizada a um sistema de gerenciamento eletrônico de documentos foram evidenciados. O meta-modelo gerado, o qual serviu de base para a análise estatística, identificou os seguintes antecedentes ao comportamento de resistência: características pessoais, sistemas e interação. Este, por sua vez, divide-se na interação poder e política e na interação sócio-técnica. A partir da identificação desses vetores e montagem do meta-modelo, foi elaborado um questionário de investigação, o qual foi distribuído via Internet. Foram colhidas 133 respostas de usuários que tivessem vivenciado pelo menos uma experiência de implantação de um sistema de gerenciamento eletrônico de documentos. Os dados foram então submetidos a tratamento estatístico na ferramenta SPSS por meio de análise fatorial e regressão linear múltipla. Os resultados obtidos permitiram identificar os fatores de maior influência no comportamento de resistência e confirmar/refutar as hipóteses originalmente propostas. O meta-modelo gerado também promoveu a discussão dos resultados com base na teoria utilizada, gerando novos insights para o entendimento do comportamento de resistência no contexto do GED.
Resumo:
This research aims at to contribute to show the consolidation of the area of Information Systems (IS) as area of knowledge in Production Engineering. For this, it according to presents a scenery of the publication in IS in the field of the Production Engineering in Brazil amount of articles, the authorship profile, the methodologies, the citations, the research thematic and the continuity of the research thematic. The base for this study was the works published in the National Meeting of Production Engineering - ENEGEP of years 2000, 2001, 2002, 2003 and 2004, inside of the area of Information Systems. Classified as bibliographical research, of applied nature, quantitative boarding, of the point of view of the objectives description-exploration was called and for the collection of data its comment was systematic with bibliographical survey. As field research, the method of collection of data if constituted of the elaboration of an analysis protocol and, to arrive itself at the final diagnosis, it operation the data through the statistical method, with the accomplishment of descriptive analyses. It approached concepts of IS and the seek areas and, it studied research correlate in Production Engineering, in Information Systems, in Information Science and other areas of the knowledge. How much to the results one concluded that the national and international contents are compatible and that the area of IS is in constant evolution. For the continuity of research lines it was observed that the majority of the authors was faithful to the area of Systems of Information. Amongst other found results, some institutions must try to increase its volume of publications and research, while others must look for to keep its reached mark already in the last years
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Atualmente, é grande a preocupação com relação aos distúrbios que afetam a qualidade da energia elétrica, em especial os afundamentos de tensão, devido aos prejuízos associados aos usuários. Isto decorre da crescente presença de cargas sensíveis a estes distúrbios, principalmente nos processos industriais. Para se avaliar corretamente o problema, é fundamental dispor de estimativas confiáveis do número e das características dos afundamentos de tensão que podem afetar determinada carga ou processo. Dentro deste contexto, este trabalho propõe a implementação de uma metodologia de estimação dos afundamentos de tensão. Esta metodologia calcula a amplitude, duração e freqüência de ocorrência do fenômeno, tendo como base um estudo estatístico estocástico. Neste estudo a posição da falta ao longo das linhas é sorteada, a fim de melhor emular a aleatoriedade da ocorrência das faltas no sistema. Para avaliar a aplicabilidade da metodologia implementada, realizaram-se estudos de casos utilizando um sistema elétrico real pertencente a uma concessionária da região norte (CELPA). A análise permite afirmar que a metodologia implementada pode ser eficazmente utilizada para auxiliar engenheiros no planejamento de sistemas elétricos e no diagnóstico de problemas ocasionados por afundamentos de tensão.
Resumo:
O objetivo deste trabalho foi identificar e mapear áreas suscetíveis a movimentos de massa, por meio das geotecnologias, no município de Várzea Paulista (SP). Para o propósito, foram utilizados os mapas de declividade, geológico, geomorfológico e de uso e ocupação da terra, que foram sobrepostos por meio da Análise Multicritério no SIG ArcGIS. Cada tema recebeu seu peso de influência para deflagração de tais processos e como resultado final foi obtido o mapa de suscetibilidade a movimentos de massa do município em questão. Paralelamente foi elaborado o estudo da orientação de vertentes, para determinação daquelas que apresentam maiores riscos em comparação com os dados coletados em campo. Constatou-se que existem muitas áreas ocupadas dentro do município que carecem de monitoramento do Poder Público, principalmente nos meses chuvosos, pois se encontram em locais frágeis do ponto de vista geológico-geomorfológico.
Resumo:
The need to know and to preserve the coastal ecosystems is justified by the whole importance that those ecosystems have for our society. Then, it is big the concern in guaranteeing that those places stay free from contaminations. Among the several types of potentials pollutants that can affect the coastal systems, the petroleum-derived are the ones that cause the worst impacts, given the frequency of these accidents. Rapid actions are necessary in order to minimize the oil negative effects . This answer is faster when the most sensitive areas are known and when it presents characteristics of larger importance, as for instance, the presence of sea harvesting or the habitat of an endemic specie. Besides, it is necessary to know which cleanup methods are recommended and which are not recommended for the reached areas, so, the corrected emergency plans for each coastal environment can be applied. It is in this context that this project was developed, implementing a geographical database for the different coastal environment of São Sebastião municipality, SP, and also the data about the best cleanup techniques for each segment of the coast. This database was made available by the internet, enabling the access for several types of users.