1000 resultados para Administração da produção e sistemas de informação
Resumo:
Este artigo apresenta o Sistema de Informação de Custos do Governo Federal, descrevendo o modelo e suas principais características, desde o conceito até a finalidade e os grupos de usuários, explorando a correspondência entre os conceitos de contabilidade governamental e de custos. O artigo demonstra o relacionamento entre as políticas públicas, recursos, atividades e objetos de custo. Para tanto, remete aos conceitos de sistema de acumulação e método de custeio de custos no setor público, correlacionando-os aos sistemas de informação governamentais. O artigo também apresenta o modelo téorico-conceitual, as diretrizes que sustentaram a sua concepção e a descrição do seu processo de implantação que ainda está em curso. O artigo finalmente olha para o futuro, depois de vencida a etapa de implantação do sistema, e exorta os leitores a se inserirem no debate sobre mensuração de custos. A importância do SIC é enfatizada como elemento de melhoria da qualidade do gasto no setor público
Resumo:
O Brasil está em processo de convergência de sua contabilidade pública em relação aos padrões internacionais desenvolvidos pela Federação Internacional dos Contadores (Ifac). A implementação de sistemas de informação contábil é geralmente realizada por meio das abordagens top-down ou bottom-up. Assim, este estudo tem por objetivos: 1) identificar a abordagem adotada pelo governo federal brasileiro; 2) descrever o modelo de implementação do sistema de informação contábil público no Brasil; e 3) mapear o fluxo de informações e atores envolvidos no processo de convergência. A abordagem qualitativa foi adotada utilizando a pesquisa documental e análise de conteúdo de documentos disponíveis para operacionalizar a pesquisa. Foi identificado que o Brasil utiliza a abordagem middle-up-down, que favorece a interação entre múltiplos atores no processo, diferentemente da abordagem top-down, que segue o modelo internacional divulgado.
Resumo:
RESUMO: Hoje em dia o software tornou-se num elemento útil na vida das pessoas e das empresas. Existe cada vez mais a necessidade de utilização de aplicações de qualidade, com o objectivo das empresas se diferenciarem no mercado. As empresas produtoras de software procuram aumentar a qualidade nos seus processos de desenvolvimento, com o objectivo de garantir a qualidade do produto final. A dimensão e complexidade do software aumentam a probabilidade do aparecimento de não-conformidades nestes produtos, resultando daí o interesse pela actividade de testes de software ao longo de todo o seu processo de concepção, desenvolvimento e manutenção. Muitos projectos de desenvolvimento de software são entregues com atraso por se verificar que na data prevista para a sua conclusão não têm um desempenho satisfatório ou por não serem confiáveis, ou ainda por serem difíceis de manter. Um bom planeamento das actividades de produção de software significa usualmente um aumento da eficiência de todo o processo produtivo, pois poderá diminuir a quantidade de defeitos e os custos que decorrem da sua correcção, aumentando a confiança na utilização do software e a facilidade da sua operação e manutenção. Assim se reconhece a importância da adopção de boas práticas no desenvolvimento do software. Para isso deve-se utilizar uma abordagem sistemática e organizada com o intuito de produzir software de qualidade. Esta tese descreve os principais modelos de desenvolvimento de software, a importância da engenharia dos requisitos, os processos de testes e principais validações da qualidade de software e como algumas empresas utilizam estes princípios no seu dia-a-dia, com o intuito de produzir um produto final mais fiável. Descreve ainda alguns exemplos como complemento ao contexto da tese. ABSTRACT: Nowadays the software has become a useful element in people's lives and it is increasingly a need for the use of quality applications from companies in order to differentiate in the market. The producers of software increase quality in their development processes, in order to ensuring final product quality. The complexity and size of software, increases the probability of the emergence of non-conformities in these products, this reason increases of interest in the business of testing software throughout the process design, development and maintenance. Many software development projects are postpone because in the date for delivered it’s has not performed satisfactorily, not to be trusted, or because it’s harder to maintain. A good planning of software production activities, usually means an increase in the efficiency of all production process, because it can decrease the number of defects and the costs of it’s correction, increasing the reliability of software in use, and make it easy to operate and maintenance. In this manner, it’s recognized the importance of adopting best practices in software development. To produce quality software, a systematic and organized approach must be used. This thesis describes the main models of software development, the importance of requirements engineering, testing processes and key validation of software quality and how some companies use these principles daily, in order to produce a final product more reliable. It also describes some examples in addition to the context of this thesis.
Resumo:
A integração de informação geográfica disponível em diferentes formatos levanta a necessidade de criar mecanismos de resolução de incompatibilidades, tendo em vista facilitar a partilha e reutilização de informação. No âmbito desta dissertação, propõe-se uma arquitectura que efectue a integração de informação geográfica. A arquitectura processa diferentes fontes de informação geográfica com diferentes formatos. A informação geográfica apresentada nas entradas é transformada atendendo a um formato de representação interno e, após ser realizada a sua integração, é disponibilizada em múltiplos formatos de saída. A arquitectura proposta é modular e inclui o módulo de leitura das entradas, o módulo que associa as fontes de informação aos respectivos formatos, o módulo de conversão dos dados de entrada no formato de representação interno e o módulo de integração que gera os dados nos diferentes formatos de saída. Com o objectivo de avaliar experimentalmente a arquitectura, foi desenvolvido um protótipo. Foram processados exemplos de informação geográfica relativos a cenários de integração que cobrem as funcionalidades da arquitectura, nomeadamente a inclusão de novos formatos de informação geográfica e a integração de fontes de informação homogéneas ou heterogéneas. Os resultados obtidos confirmam que a arquitectura proposta é adequada à integração de fontes de informação geográfica e que é uma contribuição válida para a resolução de problemas de interoperabilidade em sistemas de informação geográfica.
Resumo:
Apesar da existência de produtos comerciais e da investigação na área, a construção de sistemas de informação com diversos componentes distribuídos, heterogéneos e autónomos - conhecidos como sistemas de informação federados - é ainda um desafio. Estes sistemas de informação oferecem uma visão global unificada sobre os vários modelos de dados (parciais). No entanto, a modelação destes sistemas é um desafio, já que modelos de dados como o relacional não incluem informação sobre a distribuição e tratamento de heterogeneidade. É também necessário interagir com estes sistemas de informação, através de interrogações sobre os diversos componentes dos sistemas, sem ser necessário conhecer os detalhes dos mesmos. Este trabalho propõe uma abordagem a estes desafios, através da utilização de modelos para descrição semântica, e.g. linguagem OWL (Ontology Web Language), para construir uma descrição unificada dos seus diversos modelos parciais. O modelo criado para dar suporte a esta descrição é, em parte, baseado em ontologias existentes, que foram alteradas e extendidas para resolver diversos desafios de modelação. Sobre este modelo, é criado um componente de software que permite a execução de interrogações SQL (Structured Query Language) sobre o sistema federado, resolvendo os problemas de distribuição e heterogeneidade existentes.
Resumo:
Neste trabalho, propõe-se estudar o enquadramento dos Sistemas Integrados de Gestão Empresarial (Enterprise Resource Planning – ERP) numa Arquitectura Orientada a Serviços (Service Oriented Architecture – SOA) e quais os benefícios que podem ser obtidos no desenvolvimento de novas aplicações e integração com outros Sistemas de Informação (SI). Propõe-se fazer um levantamento da evolução e do estado da arte dos sistemas ERP e da arquitectura SOA. Para ter uma visão concreta, escolheu-se analisar um sistema ERP específico, o ERP da SAP e a plataforma tecnológica em que assenta, o SAP NetWeaver. Que estratégia tem sido seguida pelos principais fabricantes de sistemas ERPs, para enquadrar os seus sistemas ERP numa arquitectura SOA? Finalmente avalia-se o conceito de aplicação composta (Composite Application) baseada na arquitectura SOA, através da utilização de um Ambiente Integrado de Composição (Integrated Composition Environment – ICE). A plataforma utilizada para essa avaliação é o SAP NetWeaver Composition Enviroment (CE). Mais especificamente, desenvolve-se uma aplicação composta, resultante da combinação de serviços expostos pelo sistema ERP da SAP (enterprise services) e um Web Service instalado noutra plataforma.
Resumo:
O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
O avanço e difusão da tecnologia, em particular da Internet, obrigaram à disponibilização de informação com qualidade e facilmente acessível. Tais exigências vêm confirmar a relevância do papel da interface como elemento principal na interacção do utilizador com os sistemas de informação. É, por isso, fundamental que a interface seja fácil de usar e que vá ao encontro das expectativas e necessidades de todos os utilizadores. O desenvolvimento de interfaces que satisfaçam utilizadores com necessidades distintas, independentemente das suas capacidades motoras e perceptivas, culturais e sociais não é uma tarefa que possa se considerada simples [1]. De acordo com vários especialistas em Interacção Homem-Computador, [1], [2] e [3] as interfaces devem ser construídas respeitando os princípios de desenho centrado no utilizador, visando um elevado grau de usabilidade e em conformidade com directrizes de acessibilidade básicas. Este trabalho apresenta uma metodologia para avaliação da acessibilidade de um sítio Web, baseado num documento disponibilizado pela Web Accessibility Initiative, WAI, [4], a ser aplicada à secretaria on-line de uma escola do ensino superior.
Resumo:
OBJETIVO: Reduzir as despesas e o tempo associados ao processo de amostragem de domicílios e mostrar a viabilidade de uso compartilhado dos cadastros de endereços entre vários inquéritos epidemiológicos, a partir da reciclagem de material produzido pela Pesquisa Nacional de Amostras de Domicílios (PNAD). MÉTODOS: Cadastros permanentes de endereços foram construídos e atualizados para 72 setores censitários, e retidos como unidades primárias da amostra mestra do município de São Paulo, SP. No período 1995-2000, sortearam-se três diferentes amostras pelo processo de conglomerados, em dois estágios. Operações de sorteio e mapeamento das amostras foram automatizadas por meio da aplicação de tecnologia de geoprocessamento. RESULTADOS: Cerca de 25.000 domicílios compõem o cadastro permanente de endereços da amostra mestra. A produção ágil e barata de cada amostra, aliada ao conhecimento acumulado sobre os perfis demográficos e topográficos dos setores censitários, pode ser considerada a principal contribuição dos resultados alcançados. Verificou-se que o sistema proposto contrasta com a seleção de amostras independentes para cada investigação "ad hoc", o que ainda é prática comum nas agências ou grupos que realizam inquéritos domiciliares. CONCLUSÕES: A reciclagem das listagens anuais de endereços da PNAD, apesar de restringir a abrangência de replicação da experiência aos municípios mais populosos do País, evita a repetição do processo de amostragem para cada inquérito; além disso, significa importante contribuição ao planejamento de investigações descritivas na área da saúde pública. Questões conceituais ou teóricas, decorrentes do procedimento operacional, foram facilmente superadas pela introdução de técnicas estatísticas compensatórias.
Resumo:
Com o volume de informação disponível para análise e tomada de decisões, a capacidade de sumarização da informação, facilitando o processo de análise e tomada de decisões em tempo útil, assume um papel fundamental nos dias correntes. Com o crescimento de sistemas de exploração geográfica dos dados, esta tese propõe e implementa uma solução para a exploração e sintetização da informação geográfica. A exploração geográfica dos dados é efetuada com recurso a mapas temáticos, gráficos e tabelas pivot. Para a exploração geográfica dos dados, são estudadas várias técnicas de geração de mapas temáticos, tecnologias associadas e conceitos de sistemas de informação geográfica. O foco do projeto recai sobre, sumarização de informação estatística georreferenciada, através de mapas coropletos com suporte em mapas dinâmicos na Web. Como prova de conceito, são utilizados os dados disponibilizados pelo Instituto Nacional de Estatística (INE), através de um Web Service. Estes dados, são integrados no sistema possibilitando a representação onde cada um dos indicadores através das ferramentas de sumarização da informação implementadas: Gráficos, Tabelas pivot e Mapas temáticos.
Resumo:
Nos dias de hoje, com a informatização dos sistemas de informação, as organizações, a nível mundial, são capazes de armazenar todo o tipo de informação por elas gerada. Esta informação é cada vez mais complexa, podendo conter dados de produção, de consumo, de facturação, etc. Sem desprezar o resto da informação produzida, pode dizer-se que os dados administrativos assumem uma relevância especial na gestão dessas organizações. É sobre estes dados que as organizações baseiam todas as tomadas de decisão que definem o seu futuro num ambiente competitivo. Associados a toda a complexidade da informação gerada, estão os problemas de qualidade de dados, muitas vezes desprezados, mas que podem influenciar negativamente as medidas adoptadas e os objectivos traçados. Este capítulo procura, acima de tudo, chamar a atenção para este tipo de problemas, referenciando algumas das suas implicações no âmbito hospitalar. Como resultado, este capítulo apresenta uma sistematização dos vários erros possíveis de constar neste tipo de bases de dados administrativas, contribuindo com alguns exemplos encontrados durante um estudo de qualidade de dados.
Resumo:
Mestrado em Engenharia Informática
Resumo:
OBJETIVO: Determinar a confiabilidade da codificação e seleção da causa básica dos óbitos por violência; verificar a concordância entre causa registrada no Sistema de Informação sobre Mortalidade e causa selecionada após investigação no Instituto Médico Legal; avaliar o impacto de incorporar informações pós-investigação dos acidentes não especificados e eventos de intenção indeterminada nas estatísticas de mortalidade. MÉTODOS: Selecionou-se amostra aleatória de 411 declarações de óbito de residentes em Belo Horizonte, MG, de 1998 a 2000. Com base nas informações dessas declarações e do Instituto Médico Legal, procedeu-se à codificação da causa e à determinação da concordância entre esta codificação e aquela registrada no Sistema de Informação sobre Mortalidade. Ainda, para todas as declarações classificadas como "acidentes não especificados" e "eventos de intenção indeterminada", avaliou-se o impacto da agregação das informações do Instituto Médico Legal sobre a classificação dos diversos tipos de violência. RESULTADOS: A concordância da codificação foi substancial (Kappa=0,782; IC 95%: 0,744; 0,819) e, da causa básica entre moderada e substancial (Kappa=0,602; IC 95%: 0,563; 0,641). Identificou-se 12,9% mais suicídios e 5,7% mais homicídios entre os acidentes não especificados e eventos de intenção indeterminada, estes reduzidos em 47,3% e 59,8%, respectivamente. CONCLUSÕES: Verificou-se necessidade de aprimoramento da codificação e seleção da causa básica; de melhoria no preenchimento da declaração de óbito pelos legistas e das informações médicas e policiais nos documentos de encaminhamento de corpos para necropsia, em especial nos acidentes de transporte e quedas.
Resumo:
Trabalho apresentado para obtenção do Título de Especialista, pelo Instituto Superior de Contabilidade e Administração de Lisboa, do Instituto Politécnico de Lisboa