997 resultados para De cortes nobres dados prelimin
Resumo:
Este documento foi escrito para retratar o trabalho desenvolvido como tese de mestrado “Desenvolvimento de um Programa/Base de dados para o controlo automático da Engenharia/Manutenção Aeronáutica”. O programa criado tem como objectivo de gerir a aeronavegabilidade de uma frota de aeronaves, traduzindo todos os requisitos da autoridade que rege a aeronáutica na Europa. O mesmo fundamenta-se no desenvolvimento de um software aplicado a uma empresa que faz a gestão contínua da aeronavegabilidade de um operador aéreo. A sua realização implica conhecer todas as tarefas na gestão contínua de aeronavegabilidade dentro de uma empresa certificada Part M. Para esse conhecimento foi preciso um estudo sobre todas as entidades, manuais e definições envolventes a essa função. A base da construção do programa foi o anexo II, requisitos exigidos pelo INAC para aprovar um programa desse género. Para uma melhor abordagem foi preciso uma revisão de conceitos da manutenção industrial resultantes da Manutenção Aeronáutica e demais. Num início, comeca-se por definir através de vários pontos de vista a manutenção, planeamento da manutenção, noções de fiabilidade e teorias fiabilisticas que estão na base do desenvolvimento de programas de manutenção, seguido de uma explicação sucinta do que é uma empresa que gere aeronavegabilidade de um operador aéreo. É fei3 ta uma explicação de todas as tarefas para manter todo o material de voo aeronavegável segundo o INAC . No capítulo III temos uma explicação de todas as teorias usadas na manutenção aeronáutica na evolução de programas de manutenção de aeronaves passando pelo MSG1 até à filosofia actual usada no desenvolvimento de programas de manutenção na aeronáutica, MSG3. O capítulo IV descreve todos os documentos técnicos envolvidos na gestão de aeronavegabilidade, desde os manuais emitidos pelo fabricante, passando pelos documentos emitidos pelas autoridades aeronáuticas e documentos técnicos produzidos pelo próprio operador aéreo. No capítulo V é descrita uma organização Part M, subpart G, as tarefas mais importantes na gestão contínua de aeronavegabilidade e as responsabilidades da mesma perante a autoridade aeronáutica nacional e tambem define todo o tipo de manutenção exigida a um operador aéreo para manter o seu material de voo aeronavegável sempre atendendo à segurança. Este capítulo define todo o tipo de trabalho a realizar, desde as manutenções mais leves realizadas na placa com o avião em trânsito até às grandes manutenções realizadas num Hangar e apoiodas por oficinas de especialidade. O capítulo VI descreverá o que foi feito. Este capítulo descreve sucintamente tudo o que foi feito, as razões da criação das tabelas, consultas, formulários e relatórios e importância desses na dinâmica da gestão de aeronavegabilidade. Depois de explicar a razão da criação de todas as tabelas, consultas e formulários segue-se um subcapítulo com dados de manutenção fornecidos gentilmente por uma empresa no ramo de forma a poder demostrar como o programa funciona. O último subcapítulo tem algumas considerações finais sobre aquilo que foi feito e aquilo que deveria ser feito com o objectivo de desempenhar de forma automática todoss os requisitos de gestão de aeronavegabilidade. O capítulo VIII tem algumas recomendações futuras a alguém que quiser dar uma continuidade a esse projecto que pode tornar-se muito interessante para uma empresa Part M.
Resumo:
Na presente dissertação pretendemos averiguar da pertinência prática do actual modelo de protecção de dados clínicos, ou seja, se nele está devidamente consagrada a autonomia e a individualidade do utente; pretendemos ainda perceber a tendência evolutiva do sistema português de protecção de dados clínicos, nomeadamente a sua capacidade de inovação e adaptação aos sistemas internacionais, respeitando o nosso ordenamento jurídico. Concretamente, pretendemos perceber de que forma esta informação estará protegida, bem como até onde os utentes estarão consciencializados dos perigos que enfrentam. Embora este seja um problema mundial, o facto é que a Gestão do Sistema de Protecção de Dados Pessoais e Clínicos suscita polémica e interpretações diferentes, dada a sensibilidade ética do tema, a integridade humana. Além deste facto, estamos perante uma problemática que irá sempre envolver vários interesses e consequentemente um confronto de posições. Este trabalho procura ilustrar de que forma se lida com a gestão de dados pessoais no nosso país, de que modo se harmonizam os diferentes interesses e perspectivas, que prioridades se encontram na orientação governamental nesta matéria, quais as penalizações para os eventuais incumpridores e qual o futuro possível dos dados pessoais em saúde, tendo como objectivo comum uma eficácia e sustentabilidade dos mecanismos utilizados. Vamos encontrar interesses divergentes, compromissos permissivos ou restritivos de tratamento de dados, tendências que suportam interesses privados e públicos que se vão concretizar em escolhas eficientes de gestão de dados. Esta diversidade de comportamentos vai ser objecto de estudo e análise neste trabalho, procurando aferir das vantagens e desvantagens de um sistema de informação em saúde: universal com a população coberta, e integrado a fim de compartilhar informações de todos os pacientes, de todas as unidades de prestação de cuidados de saúde.
Resumo:
INTRODUÇÃO: Existem muitas críticas à qualidade dos dados criminais existentes no Brasil, mas há pouco estudo sistemático para corroborar essas críticas. Nesse sentido, foi feito estudo com o objetivo de comparar o número de homicídios registrados entre dois sistemas públicos de informação. MÉTODOS: Foram analisados os óbitos registrados pelo Sistema de Informações de Mortalidade do Ministério da Saúde (SIM/MS) e pela Polícia Militar (PMMG), de 1979 a 1998. A comparação entre os dois sistemas foi feita pela razão entre os números absolutos, categorizando os municípios em cinco grupos de acordo com o tamanho da população em 1998, e pelas taxas de homicídio. Foram ajustados dois modelos de regressão linear das taxas no tempo, um para cada sistema. RESULTADOS: Nas cidades de menos de 100.00 habitantes, as informações de homicídios da PMMG são mais completas do que as do SIM/MS. Nas cidades de mais de 100.000 habitantes, o SIM/MS é capaz de recuperar mais eficientemente os óbitos, embora possam ser incluídos indevidamente óbitos de homicídios cometidos em outros municípios e óbitos por arma branca e de fogo de intenção indeterminada que não tenham sido devido a homicídio. O sub-registro da PMMG pode ser devido às mortes hospitalares tardias, que não são acompanhadas pela PMMG. CONCLUSÕES: Os sistemas do SIM/MS e PMMG representam limites superiores e inferiores do número real de homicídios ocorridos nas grandes cidades. Sugere-se que, quando disponíveis, as duas fontes sejam analisadas e comparadas; quando apenas uma delas estiver disponível, propõe-se que a análise deva considerar as diferenças.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
OBJETIVOS: Nenhum estudo de base populacional foi realizado para mostrar o uso potencial de diagnóstico virológico do vírus rábico. O estudo realizado teve por objetivo estimar parâmetros de acurácia para o isolamento de vírus rábico em célula McCoy, como um método alternativo, e comparar com o uso da célula N2A, considerada método de referência. MÉTODOS: Foi realizado um inquérito em 120 morcegos coletados aleatoriamente, na Mata Atlântica, no Estado de São Paulo. Utilizou-se a reação de imunofluorescência para a detecção do vírus rábico isolado no cérebro desses morcegos, avaliado nos dois sistemas de cultivos celulares. Dois bancos de dados foram formados com os resultados. A análise foi feita com o programa Computer Methods for Diagnosis Tests (CMDT), utilizando a técnica de two-graph-receiver operating characteristic (TG-ROC) para obter os parâmetros de sensibilidade e especificidade, além de outros indicadores, tais como eficácia, valor preditivo positivo, valor preditivo negativo e razão de verossimilhança. RESULTADOS: A célula N2A apresentou 90% de sensibilidade e especificidade, enquanto que a célula McCoy obteve 95% para os mesmos parâmetros. Os valores foram baseados em pontos de cortes otimizados para cada uma das células. CONCLUSÕES: Observou-se que a célula McCoy permite obter estimativas de acurácia superiores aos resultados observados com a célula de N2A, representando um método alternativo eficaz no isolamento do vírus rábico.
Resumo:
OBJETIVO: Avaliar a qualidade da informação sobre óbito por infarto agudo do miocárdio nos sistemas de informação hospitalar e de mortalidade. MÉTODOS: Foram analisados dados sobre mortalidade hospitalar por infarto agudo do miocárdio, em 2000, utilizando as bases de dados do Sistema de Informação de Mortalidade (SIM) e do Sistema de Informação Hospitalar (SIH/SUS); e numa segunda etapa utilizaram-se de dados obtidos de levantamento direto de prontuários médicos de dois hospitais do Sistema Único de Saúde no município do Rio de Janeiro. Foi feita comparação entre prontuários, declarações de óbitos e formulários de autorização de internação hospitalar. Utilizou-se para confirmação do diagnóstico de infarto agudo do miocárdio critérios da Organização Mundial de Saúde. A concordância entre as informações presentes na declaração de óbito, autorização de internação hospitalar e prontuários foi utilizado o teste de Kappa de Cohen e o coeficiente de correlação intraclasse (ICC). RESULTADOS: O total de óbitos hospitalares por infarto agudo do miocárdio registrados no SIM é expressivamente maior que no SIH/SUS. Foram identificados três fontes que explicam grande parte da discrepância observada: ausência de emissão de autorização de internação hospitalar (32,9%), notificação de outro diagnóstico principal no SIH/SUS (19,2%) e subnotificação do óbito na autorização de internação hospitalar (3,3%). O diagnóstico de infarto foi confirmado em 67,1% dos casos de notificados na declaração de óbito. A sensibilidade da informação sobre óbito por infarto do miocárdio foi de aproximadamente 90% em ambos os sistemas de informação analisados. CONCLUSÕES: Os resultados mostraram ser necessário implementar medidas voltadas para a melhoria da qualidade da informação no SIH/SUS, tais como a padronização de critérios para emissão da autorização de internação hospitalar nas emergências e o treinamento das equipes dos sistemas de registro.
Resumo:
Neste artigo apresenta-se a ferramenta SmartClean, destinada à detecção e correcção de problemas de qualidade dos dados. Comparativamente às ferramentas actualmente existentes, o SmartClean possui a mais-valia de não obrigar a que a sequência de execução das operações seja especificada pelo utilizador. Para tal, foi concebida uma sequência segundo a qual os problemas são manipulados (i.e., detectados e corrigidos). A existência da sequência suporta ainda a execução incremental das operações. No artigo, a arquitectura subjacente à ferramenta é exposta, sendo detalhados os seus componentes. A validade da ferramenta e, consequentemente, da arquitectura é comprovada através da apresentação do caso de estudo efectuado. Apesar do SmartClean possuir potencialidades de limpeza de dados noutros níveis (e.g., relação), no artigo apenas são descritas as relativas ao nível do valor individual do atributo.
Resumo:
O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.
Resumo:
Nos dias de hoje, com a informatização dos sistemas de informação, as organizações, a nível mundial, são capazes de armazenar todo o tipo de informação por elas gerada. Esta informação é cada vez mais complexa, podendo conter dados de produção, de consumo, de facturação, etc. Sem desprezar o resto da informação produzida, pode dizer-se que os dados administrativos assumem uma relevância especial na gestão dessas organizações. É sobre estes dados que as organizações baseiam todas as tomadas de decisão que definem o seu futuro num ambiente competitivo. Associados a toda a complexidade da informação gerada, estão os problemas de qualidade de dados, muitas vezes desprezados, mas que podem influenciar negativamente as medidas adoptadas e os objectivos traçados. Este capítulo procura, acima de tudo, chamar a atenção para este tipo de problemas, referenciando algumas das suas implicações no âmbito hospitalar. Como resultado, este capítulo apresenta uma sistematização dos vários erros possíveis de constar neste tipo de bases de dados administrativas, contribuindo com alguns exemplos encontrados durante um estudo de qualidade de dados.
Resumo:
OBJETIVO: Avaliar a qualidade dos dados do sistema de vigilância epidemiológica na detecção de casos suspeitos de dengue internados em hospitais públicos e conveniados do Sistema Único de Saúde. MÉTODOS: O estudo foi realizado em Belo Horizonte, Estado de Minas Gerais, no período de 1996 a junho de 2002. Foram adotados os critérios de avaliação de qualidade dos dados de vigilância da dengue do Guidelines for Evaluating Public Health Surveillance Systems. Como padrão de referência foram utilizados os prontuários médicos revisados e validados dos pacientes internados e registrados na rede hospitalar do sistema público de saúde. Foram obtidos 266 (90%) do total de 294 prontuários selecionados, 230 (86,5%) preencheram o critério de caso suspeito de dengue. Para verificar associação entre o sub-registro e variáveis selecionadas, utilizou-se o odds ratio com intervalo de confiança de 95% em modelo de regressão logística. Para avaliar a sensibilidade do sistema de notificação, utilizou-se a proporção de casos internados no sistema hospitalar que estavam notificados; para o valor preditivo positivo, utilizou-se a proporção de casos confirmados por laboratório e registrados no sistema de notificação. RESULTADOS: Verificou-se sub-registro de 37% dos casos no período de 1997 a 2002, com cinco vezes mais chances de ocorrência nos três primeiros anos (OR=5,93; IC 95%: 2,50-14,04), oito vezes mais nas internações em hospitais conveniados que naqueles públicos (OR=8,42, IC 95%: 2,26-31,27). O sub-registro associou-se também aos casos clínicos internados sem manifestações hemorrágicas (OR=2,81; IC 95%: 1,28-6,15), e sem exames laboratoriais específicos para dengue no prontuário (OR=4,07; IC 95%: 1,00-16,52). A sensibilidade estimada do sistema de notificação foi de 63% e o valor preditivo positivo foi de 43%. CONCLUSÕES: Os casos de dengue registrados no sistema de notificação foram aqueles de evolução mais grave e não representaram a totalidade de casos internados no sistema público de saúde, superestimando a taxa de letalidade da doença. Os resultados indicam a necessidade de mudanças no modelo da vigilância e de implementação da capacitação dos profissionais de saúde, principalmente aqueles que trabalham em hospitais conveniados.
Resumo:
Mestrado em Engenharia Informática
Resumo:
Mestrado em Engenharia Informática
Resumo:
Jornadas "Ciência nos Açores - que futuro?", Biblioteca Pública e Arquivo Regional de Ponta Delgada, Largo do Colégio, Ponta Delgada, 7-8 de junho.