999 resultados para Códigos de controle de erros (Teoria da informação)
Resumo:
OBJETIVO:Os erros de medicação são atualmente um problema mundial de saúde pública, sendo os mais sérios os de prescrição. O objetivo do estudo foi analisar a prática da prescrição de medicamentos de alto risco e sua relação com a prevalência de erros de medicação em ambiente hospitalar. MÉTODOS:Estudo transversal retrospectivo abrangendo 4.026 prescrições com medicamentos potencialmente perigosos. Durante 30 dias de 2001, foram analisadas todas as prescrições recebidas na farmácia de um hospital de referência de Minas Gerais. As prescrições foram analisadas quanto a: legibilidade, nome do paciente, tipo de prescrição, data, caligrafia ou grafia, identificação do prescritor, análise do medicamento e uso de abreviaturas. Os erros de prescrição foram classificados como de redação ou decisão, sendo avaliada a influência do tipo de prescrição na ocorrência de erros. RESULTADOS: Houve predomínio da prescrição escrita à mão (45,7%). Em 47,0% das prescrições escritas à mão, mistas e pré-digitadas ocorreram erros no nome do paciente, em 33,7% houve dificuldades na identificação do prescritor e 19,3% estavam pouco legíveis ou ilegíveis. No total de 7.148 medicamentos de alto risco prescritos, foram observados 3.177 erros, sendo mais freqüente a omissão de informação (86,5%). Os erros se concentraram principalmente nos medicamentos heparina, fentanil e midazolam; e os setores de tratamento intensivo e a neurologia apresentaram maior número de erros por prescrição. Observou-se o uso intensivo e sem padronização de abreviaturas. Quando computados todos os tipos de erros, verificou-se 3,3 por prescrição. A prescrição pré-digitada apresentou menor chance de erros do que as mistas ou escritas à mão. CONCLUSÕES: Os resultados sugerem a necessidade da padronização no processo de prescrição e a eliminação daquelas feitas à mão. O uso de prescrições pré-digitadas ou editadas poderá diminuir os erros relacionados aos medicamentos potencialmente perigosos.
Resumo:
OBJETIVO: Estimar a prevalência da morbidade materna extremamente grave e identificar procedimentos hospitalares associados. MÉTODOS: Foram utilizados dados do Sistema de Informação Hospitalar fornecidos pela Secretaria de Saúde de Juiz de Fora, MG, de 2006 a 2007. Foram selecionadas as internações para procedimentos obstétricos (n = 8.620 mulheres) cujo diagnóstico principal compreendia todo o capítulo XV, gravidez, parto e puerpério, da Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde, Décima Revisão. Foram identificados os códigos dos procedimentos realizados, procedimentos especiais e atos profissionais que pudessem contemplar o critério de morbidade materna extremamente grave da Organização Mundial da Saúde e outros procedimentos não habitualmente utilizados no período gravídico-puerperal. A análise de regressão logística foi utilizada para identificar associações entre desfecho e variáveis selecionadas. RESULTADOS: A prevalência de morbidade materna foi 37,8/1000 mulheres e a proporção de mortalidade foi 12/100.000 mulheres. O tempo de internação > 4 dias foi 13 vezes mais alto entre as mulheres que apresentaram alguma morbidade. Após análise ajustada, os fatores preditores de morbidade materna extremamente grave foram: tempo de internação, número de internações e filhos natimortos, e os procedimentos/condições mais frequentes foram a transfusão de hemoderivados (15,7/1.000), "permanência a maior" (9,5/1.000) e pré-eclâmpsia grave/eclâmpsia (8,2/1.000). CONCLUSÕES: Foi alta a prevalência de morbidade materna extremamente grave, associada principalmente às internações e variáveis relacionadas ao recém-nascido. O critério para identificação dos casos e o uso do Sistema de Informações Hospitalares mostraram-se úteis para a vigilância da morbimortalidade materna e para ampliar o conhecimento sobre os aspectos que a envolvem, contribuindo para a melhoria na qualidade da assistência à mulher no período gravídico-puerperal.
Resumo:
OBJETIVO: Analisar instrumento de medição da adesão ao tratamento da hipertensão por meio da "Teoria da Resposta ao Item".MÉTODOS: Estudo analítico com 406 hipertensos com complicações associadas, atendidos na atenção básica em Fortaleza, CE, 2011, pela "Teoria da Resposta ao Item". As etapas de execução foram: teste de dimensionalidade, calibração dos itens; tratamento dos dados e construção da escala, analisadas com base no modelo de resposta gradual. Estudo da dimensionalidade do instrumento foi feito pela análise da matriz de correlação policórica e análise fatorial de informação completa. Utilizou-se o software Multilog para calibração dos itens e estimação dos escores.RESULTADOS: Os itens referentes ao tratamento medicamentoso foram os mais diretamente relacionados à adesão, enquanto aqueles referentes ao tratamento não medicamentoso precisam ser reformulados, pois possuíram menor quantidade de informação psicométrica e baixa discriminação. A independência dos itens, o reduzido número de níveis da escala e as baixas variâncias explicadas no ajuste dos modelos mostraram as principais fragilidades do instrumento analisado. A "Teoria da Resposta ao Item" mostrou-se relevante para análise, pois avaliou o respondente quanto à adesão ao tratamento da hipertensão, ao nível de dificuldade dos itens e à sua capacidade de discriminação entre indivíduos com diferentes níveis de adesão, o que gerou maior quantidade de informação.CONCLUSÕES: O instrumento analisado é limitado para medir a adesão ao tratamento da hipertensão, mediante análise pela "Teoria da Resposta ao Item", e necessita de ajustes. A adequada formulação dos itens é importante para medir precisamente o traço latente desejado.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Informática pela Universidade Nova de Lisboa,Faculdade de Ciências e Tecnologia
Resumo:
O conceito de informação está intimamente relacionado com a estatística. Como diz D.Basu (1988): “The key word in Statistics is information. After all, this what the subjects is all about “. No entanto, não é objectivo desta nota entrar na discussão do difícil problema de quantificar a informação que os dados estatísticos podem dar sobre os modelos probabilísticos especificados ou sobre os respectivos parâmetros. O propósito é bem mais modesto resume-se a estudar o valor da informação no contexto da teoria de decisão numa perspectiva Bayesiana. A ideia é começar com o tratamento de um exemplo simples apresentando depois algumas generalizações.
Resumo:
A investigação dos últimos 10 anos mostra que pelo menos 10% dos doentes admitidos em estabelecimentos hospitalares vão sofrer danos decorrentes da prestação dos cuidados de saúde. É da responsabilidade do profissional de saúde evitar que isso aconteça. No entanto, poucos profissionais registam os seus erros e menos ainda são os que os analisam, o que dificulta a aprendizagem e a prevenção de ocorrências semelhantes no futuro. Paradoxalmente, o primeiro passo para a criação de um sistema eficaz de promoção da segurança do doente é aumentar a visibilidade do erro e da lesão decorrentes dos cuidados de saúde. Para isso concorrem os sistemas de relatos de incidentes, as auditorias, a revisão de processos e a monitorização de indicadores clínicos. A análise dos dados obtidos permite identificar as áreas que necessitam de medidas de correcção, bem como planear a sua implementação. Em dois hospitais do Centro Hospitalar de Lisboa Central (CHLC), o sistema de informação de segurança do doente conta, desde 2003, com cerca de 5 mil relatos de incidentes feitos pelos vários profissionais de saúde. A informação gerada, associada à que é fornecida pelas auditorias clínicas e pelos indicadores clínicos, tem sido aplicada na reorganização de processos e procedimentos, e na implementação de medidas correctivas. O evento adverso tornou-se também mais visível para o próprio doente, que espera da instituição e dos profissionais maior abertura na comunicação dos problemassurgidos durante os cuidados. A avaliação de risco, a prevenção do erro e a promoção da segurança do doente fazem já parte do currículo pré e pós graduado dos profissionais de saúde do CHLC.
Resumo:
Neste trabalho, investiga-se o que é preconizado pela Governança de Tecnologia da Informação (GTI) e o que de fato é implementado nas organizações. Utiliza-se a Teoria da Representação Social (TRS) para verificar qual a representação da GTI, pois, segundo essa teoria, é em função das representações que as pessoas fazem de determinado objeto social, ou conceito, que os indivíduos realizam suas ações cotidianas de uma maneira ou de outra. Neste estudo, de natureza interpretativa, a estratégia de pesquisa adotada foi o estudo de multicasos em duas empresas multinacionais de grande porte, que atuam em setores distintos. Em ambas as organizações, o foco está voltado para o ambiente interno da TI. Por influência da história da implementação da GTI nas organizações e na representação que os técnicos fazem dela, estão ausentes mecanismos relacionados à estrutura organizacional, e pouco presentes mecanismos de relacionamento com as áreas de negócio. Conclui-se que a GTI está fortemente ancorada em mecanismos de processos e controle de TI, os quais fazem com que perca valor na prática profissional e na atuação dos profissionais de TI.
Resumo:
Objetivou-se conhecer a percepção dos coordenadores do Programa de Controle da Tuberculose quanto à utilização do Sistema de Informação de Agravos de Notificação (SINAN) como instrumento da estratégia DOTS (Directly Observed Treatment). Estudo de natureza qualitativa utilizou a entrevista semi-estruturada com oito coordenadores do Programa de Controle da Tuberculose de seis municípios paraibanos. Os resultados evidenciaram que os municípios utilizam o SINAN para avaliação das ações de controle da tuberculose, apontando como dificuldades, deficiência do preenchimento das fichas de notificação de tuberculose; precária infra-estrutura de informática; qualificação insuficiente de recursos humanos; falta de integração entre profissionais de diferentes setores; deficiência do fluxo da informação entre unidades de saúde/municípios. Considerando que a qualidade da informação pode comprometer o monitoramento dos resultados de tratamento dos pacientes e conseqüentemente a eficácia da estratégia DOTS, conclui-se que é fundamental o compromisso político da gestão para superar as fragilidades identificadas.
Resumo:
Esse trabalho se propôs a estudar a comunicação e informação para o controle social no Sistema Único de Saúde (SUS). Os objetos empíricos desse estudo foram os Conselhos de saúde de dois municípios de pequeno porte, situados na Região Metropolitana de Belo Horizonte/MG: Brumadinho e Sarzedo. Partindo do pressuposto de que qualquer forma de controle social se faz com práticas comunicacionais e informacionais, objetivou-se analisar até que ponto há um uso efetivo da comunicação e informação para o controle social: seja no interior dos conselhos na sua prática cotidiana ou, externamente, na comunicação com a sociedade. A metodologia utilizada foi a pesquisa qualitativa, utilizando-se o método de análise documental, entrevista com conselheiros de saúde e observação participante. Na análise documental, foram analisados relatórios de conferências de saúde, atas e pautas das reuniões dos conselhos de saúde, com temas que se relacionavam com comunicação e informação para o controle social A entrevista com conselheiros foi realizada a partir de questionario semiestruturado a fim de obter informacoes sobre a percepcao dos conselheiros sobre o tema \comunicacao e informacao para exercicio do controle social no SUS.. A observacao participante permitiu verificar como ocorrem as relacoes comunicacionais nos espacos das reunioes dos conselhos. Os resultados da pesquisa confirmaram a nossa hipotese, de que ha poucos investimentos informacionais e comunicacionais nos conselhos de saude e isso dificulta e compromete a participacao dos conselheiros. A falta de dialogo do conselho com a sociedade acarreta o desconhecimento sobre as suas acoes e isso atribui um grau de pouca importancia do orgao pela populacao
Resumo:
Com a globalização do mercado e o alto nível de competitividade no setor educacional, as organizações, para manterem-se, devem ser ágeis e competentes. Neste contexto, a gestão eficiente dos recursos e a obtenção de informações precisas que apóiem a tomada de decisão dependerão, em grande parte, de um sistema de informações de custos. Este sistema deverá ter como base um método de custeio que forneça informações, a fim de atender as distintas necessidades dos gestores dos diversos níveis hierárquico e das diversas áreas de atuação. O trabalho consiste no estudo de uma metodologia de custeio aplicável a uma Instituição de Ensino Superior – IES privada, a qual atenda as três perspectivas que são fornecer informações para embasar a composição dos preços, para apoiar o processo decisório e para o planejamento e controle de gastos. Para tanto, partiu-se da pesquisa bibliográfica no levantamento do estado da arte relacionada ao tema. Com o estudo de caso buscou-se a identificação das necessidades de informações de custos, demandadas pelos gestores da IES, por meio de pesquisa qualitativa. A partir dessa identificação, as necessidades foram cruzadas com os métodos de custeio existentes, o que permitiu a identificação do método mais adequado a IES. Nesta etapa foi possível o cruzamento entre a teoria e a prática, onde foram comparados o método proposto em relação ao atual método adotado pela IES o que possibilitou a identificação das deficiências do modelo atual e suas causas. A partir disto, propõe-se uma sistemática mais adequada para apoiar a tomada de decisão, com o intuito de melhoria do desempenho da instituição. Os resultados obtidos demonstram o cumprimento do objetivo onde, considerando as necessidades de informações de custos dos gestores, o método de custeio por atividades é o mais adequado para o suporte a gestão da IES.
Resumo:
Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas
Resumo:
Este trabalho aborda o desenvolvimento de um algoritmo de controle para servoposicionadores pneumáticos. Esses dispositivos são limpos, baratos e apresentam boa relação entre seu peso e a potência que são capazes de fornecer, o que os torna vantajosos para muitas aplicações. Seu emprego em tarefas de precisão é comprometido, no entanto, pelo seu comportamento fortemente não-linear. Visando compreender os fenômenos envolvidos, e realizar testes dos controladores propostos através de simulações, é realizado um estudo da modelagem matemática desses sistemas. Buscando situar este trabalho no campo de pesquisa proposto, é apresentada uma introdução aos critérios de estabilidade utilizados no âmbito dos sistemas não-lineares, com atenção especial ao Teorema da Estabilidade Assintótica de Lyapunov. Também são discutidas as técnicas de controle não-linear utilizadas neste trabalho. O controlador não-linear proposto é sintetizado com base na estratégia de controle em cascata. Essa técnica consiste na interpretação do servoposicionador como dois subsistemas interconectados: um subsistema mecânico e outro pneumático. O modelo do subsistema mecânico é utilizado para determinar o valor de pressão necessário para que o sistema siga a trajetória desejada. Com essa informação, é calculada a entrada de controle adequada para o subsistema pneumático, de forma que esta última forneça a pressão desejada ao subsistema mecânico. A fim de assegurar robustez ao sistema controlado frente à presença de incertezas paramétricas e de forças externas e/ou de atrito, utiliza-se uma técnica de controle a estrutura variável no subsistema pneumático. A lei originalmente proposta para o subsistema pneumático é, então, modificada, com os objetivos de eliminar a necessidade de monitorar o sinal de aceleração do sistema e de reduzir o grau de solicitação dos componentes eletromecânicos do servoposicionador. As propriedades de estabilidade e robustez do sistema em malha fechada são provadas analiticamente para cada uma das duas leis de controle propostas. As demonstrações são obtidas por meio da teoria de estabilidade de Lyapunov. Essas propriedades são corroboradas por meio de simulação do sistema controlado, com e sem a presença dos efeitos não-lineares do atrito e das incertezas paramétricas. Além de ratificar as características analiticamente previstas para o servoposicionador em malha fechada, os resultados das simulações também são utilizados para comparar os méritos das diferentes leis de controle propostas para o seguimento no subsistema pneumático.
Resumo:
O objetivo desta tese é analisar a aplicação da Teoria das Opções Reais (TOR) como método para avaliação de projetos de investimentos em prestação de serviços de Tecnologia da Informação (TI), comparando seus conceitos e características, com o método tradicional do cálculo do Valor Presente Líquido (VPL). O estudo apresenta os conceitos básicos, e ilustra através de exemplo numérico, o método de avaliação da TOR aplicado a projetos de prestação de serviços de TI, analisando criticamente suas características, vantagens e limitações. Por meio desta tese, pretende-se mostrar que a Teoria das Opções Reais é uma alternativa mais adequada do que o método do VPL como método de avaliação de projetos de investimentos em serviços de Tecnologia da Informação, integrando estratégia e finanças, ao considerar as opções de flexibilidade operacionais - adiar, expandir, contrair, abandonar, etc. - e o posicionamento estratégico da empresa, ao longo da vida útil do projeto de investimento; opções estas, que não são devidamente tratadas pelo método tradicional do VPL.
Resumo:
The choice of accounting standards capable of defining the recognition, measurement and publicizing of financial and economic information to the general public constitutes one of the accounting community¿s greatest challenges. So, the analysis of the Fundamental Principles of Accounting and of the Conceptual Structure of Accounting becomes relevant because of its direct relation to the normative process and because it represents the essence of doctrines and theories relating to the Science of Accounting. Each country¿s set of rules diverges when it comes to creating and evidencing Accounting Statements, and that¿s why the harmonization of the International Accounting Rules is becoming more important among accountants: as an answer to the world qualitative and quantitative demand for information. When managers, answering a great variety of incentives, manipulate or manage the disclosure of accounting information, they show that the management of accounting information begins to represent a purposeful intervention in the process of elaboration of financial and economic statements with the intention of obtaining some private benefit. In this context, Accounting Regulation performs an important function in the technical procedure of professionals in the area and in the development of practices convergent with international standards, which, in their turn, are already in force. The present study, which is exploratory and non-experimental, aims at presenting and analyzing the process of accounting regulation under the perspective of rules and of the choice of accounting practices as an answer by regulated entities on a tridimensional perspective. The establishment of interaction among diverse fields, through interdisciplinarity, aims at bridging the gap between the fields of law and accounting by articulating concepts and cognitive schemes in a process of mutual enrichment. The research concludes that it is possible to apply concepts from Miguel Reale¿s Tridimensional Theory of Law in the study of accounting regulation.