999 resultados para Bancos - Processamento de dados
Resumo:
É discutido o valor do rastreamento sorológico para doença de Chagas, sífilis, hepatite B e AIDS realizado por bancos de sangue como indicador de morbidade populacional. Foram analisados os dados referentes a 62.814 doações de sangue obtidas em dois bancos de sangue públicos e três privados correspondendo ao total das doações no período de outubro de 1985 a outubro de 1987 em Goiânia, Goiás (Brasil). A soroprevalência foi comparada com dados obtidos pela notificação compulsória das doenças e com inquéritos epidemiológicos disponíveis. Foi encontrada soroprevalência para AIDS de 0,0@% para um único exame de ELISA, estimando-se em 1.900 o número de indivíduos supostamente infectados em Goiás, número compatível com o esperado quando se trabalha com dados de notificação. Para a doença de Chagas, hepatite B e sífilis foram observadas soroprevalências de até 3,3%, 1,3% e 4,1%, respectivamente. Foram discutidas as dificuldades encontradas para validação desses resultados pela ausência de notificação compulsória e características particulares dos inquéritos sorológicos.
Resumo:
Introdução - Em ambientes laborais de baixa temperatura ocorrem reacções fisiológicas destinadas a ajustar o equilíbrio térmico que podem conduzir a sobrecarga cardiovascular. Contudo, em várias áreas de actividade o frio é um factor essencial para a produção, o que torna a exposição ocupacional uma realidade incontornável. Este estudo teve como objectivo identificar alterações electrocardiográficas em trabalhadores de uma Indústria de Processamento de Carnes (IPC), em condições laborais de baixa temperatura (<8ºC) e caracterizar o ambiente térmico. Metodologia - Foram medidos por equipamento específico os parâmetros ambientais (temperatura, humidade relativa e velocidade do ar). Foram calculados o índice IREQ (isolamento requerido pelo vestuário) e o nível de actividade metabólica por posto de trabalho. A monitorização electrocardiográfica foi efectuada através de electrocardiografia ambulatória de Holter (EcgAH). Para recolha de dados complementares ao EcgAH, foram também utilizados um diário de EcgAH, um questionário e um termómetro digital. Resultados/Discussão - A amostra em estudo estava sujeita a um grau hipotérmico ligeiro, podendo dever-se à ausência de exposição a stress térmico e à confluência de factores como: a elevada percentagem de trabalhadores que utiliza vestuário adicional além do protector cedido pela IPC e a elevada taxa metabólica inferida pela análise da frequência cardíaca. Os resultados deste estudo divergiram dos da literatura consultada, não se identificando qualquer expressão electrocardiográfica comum na hipotermia. Considerações finais - Sugere-se a implementação de algumas medidas de carácter organizacional uma vez que, por questões produtivas, é impossível alterar as condições térmicas. Apesar de não se terem identificado alterações electrocardiográficas, considera-se pertinente integrar exames do foro cardiovascular (para além do electrocardiograma, também o electrocardiograma ambulatório de Holter, a medição ambulatória da pressão arterial e ecocardiograma) nos exames realizados no âmbito da medicina do trabalho, pois ambientes refrigerados podem promover alterações a nível cardíaco.
Resumo:
No Brasil, e em São Paulo em particular, o sistema de vigilância epidemiológica restringe-se a algumas doenças transmissíveis, não havendo, na prática, vigilância referente a doenças não transmissíveis, especialmente às decorrentes do trabalho. O atual sistema de informações para acidentes e doenças do trabalho tem sido utilizado mais para o processamento de benefícios aos acidentados e acometidos por doenças do trabalho, do que para a proposta de um sistema de vigilância. Assim, foi elaborado projeto visando a utilizar os instrumentos em uso nesse sistema de notificação, para extrair informações que possam, dentro de uma abordagem epidemiológica, dar suporte ao planejamento das atividades de saúde. O projeto encontra-se em andamento no Programa de Saúde dos Trabalhadores do SUDS-R-6 (Mandaqui), Região da Grande São Paulo (Brasil), e objetiva identificar os tipos de acidentes mais comuns na região e os ambientes de trabalho nos quais esses acidentes ocorrem com mais freqüência. Os primeiros dados analisados, correspondentes ao período de outubro a novembro de 1989, mostraram uma média de 780 acidentes mensais. As mãos e os dedos foram as partes do corpo mais atingidas, cerca de 31,5% de todos os acidentes estudados, particularmente causados por máquinas e equipamentos na indústria metalúrgica. Dos acidentes registrados, 371 (15,86%) foram considerados graves, com uma alta incidência de contusões e traumas com fraturas. Das CAT estudadas, 2.030 (87%) foram decorrentes de acidentes típicos e 298 (12,7%) de trajeto. Aproximadamente 7%, 165 casos, ocorreram em trabalhadores menores de 18 anos de idade e 10 casos tinham idade inferior a 14 anos de idade. A identificação das companhias dos ramos da construção civil, metalúrgica e indústria gráfica como aquelas que apresentam o maior número de acidentes, definiu os primeiros critérios para o planejamento das atividades do Programa de Saúde dos Trabalhadores do SUDS-R-6.
Resumo:
A limitada capacidade dos computadores em processar documentos de texto e consequente di culdade de extracção de informação desses documentos deve-se à dificuldade de processamento de informação não-estruturada. De modo a reduzir essa limitação é necessário aumentar a estrutura dos documentos com que os computadores trabalham. Este trabalho propõe um modelo de classificação de documentos através de um processo de refinamento sucessivo da informação. A cada iteração a informação presente no documento é melhor caracterizada através da aplicação de um classi cador apropriado. O processo de classificação recorre a informação estatística, usando o modelo de classificação de Bayes, sobre documentos ou fragmentos de documentos. O processo de classificação também recorre a técnicas para especificação de padrões de texto, usando expressões regulares para extrair informação que exibe um padrão conhecido. A informação obtida é armazenada em XML, que permite a interrogação de colecções de documentos de modo automático (recorrendo a bases de dados de suporte nativo XML). O XML também é usado para transformar a informação original noutros formatos, como por exemplo o HTML. Este formato pode ser usado para sintetizar a informação de modo melhorar a sua apresentação.
Resumo:
A introdução de capacidades RFID (Radio Frequency IDentification) em dispositivos móveis não é recente. No entanto, a indústria nunca se mostrou muito interessada nesta vertente, porque não existia uma entidade que regulasse a normalização dos diversos aspectos relacionados, nomeadamente a forma como os dados são transferidos entre os dispositivos e de que forma são guardados esses dados nas tags RFID (dispositivos compostos por circuito integrado e antena, que podem armazenar dados e transferi-los por rádio frequência). A inexistência de normas que pudessem ser adoptadas pelos fabricantes levaria a que cada um tivesse que definir o seu próprio conjunto de formas de transferência e armazenamento, o que conduziria inevitavelmente à fragmentação do mercado. Estes problemas foram resolvidos com a criação da associação industrial sem fins lucrativos NFC Forum, que é composta por diversos fabricantes com interesse na área. Desde a sua criação, esta associação tem vindo a desenvolver protocolos com o objectivo de unificar dispositivos e soluções de vários fabricantes. O termo NFC, ou Near Field Communication, foi criado para identificar esta nova geração de dispositivos móveis, que combinam as capacidades de processamento e interacção com o utilizador de um dispositivo móvel, com a comodidade associada à utilização de cartões sem contacto. Apesar de ser o elemento central nesta nova tecnologia, os dispositivos móveis não são os únicos que compõem esta nova família de tecnologias. Dela fazem também parte tags NFC, baseadas nos mesmos princípios das tags RFID, com a diferença que, nas primeiras, a forma como são organizados os dados é especificada pelas normas do NFC Forum. Uma das áreas de aplicação da tecnologia NFC é a disponibilização de conteúdos presentes em tags ou em outros dispositivos NFC, e exibição desses conteúdos no dispositivo móvel. No presente trabalho, são analisadas as normas publicadas pelo NFC Forum de forma a identificar a forma de estender a estrutura de mensagens proposta. A fase de análise incluiu também a identificação das características dos diversos dispositivos envolvidos nesta nova tecnologia (telemóveis, leitores desktop e tags). São apresentados os resultados do estudo de alguns projectos que utilizam tecnologia NFC, de forma a verificar até que ponto é interessante generalizar a plataforma a desenvolver neste projecto, bem como quais as funcionalidades mínimas desejáveis. Com base nesta análise, são definidos alguns conceitos base para a solução que envolvem tópicos como os protocolos de transporte, assim como o formato dos dados utilizado para transportar o conteúdo entre os vários componentes da solução. O resultado é uma solução híbrida que admite um vasto leque de aplicações. Verificou-se que as soluções actuais poderiam ser implementadas com recurso à solução aqui apresentada e, nos casos em que tal não acontece directamente, a solução actual pode ser estendida para o tornar possível.
Resumo:
A congelação alimentar é um dos mais importantes processos de conservação de géneros alimentícios a nível mundial. Este estudo analisa de forma comparada os processos de congelação clássica e criogénica de produtos alimentares em geral, e em particular do camarão. Focaliza as mudanças ocorridas durante o processo de congelação bem como a importância e consequência dos cristais de gelo formados durante o processo. É feita uma abordagem à velocidade da frente de frio e ao efeito que o ciclo congelação-descongelação trás à qualidade final do produto. Os dados colectados permitem evidenciar uma clara vantagem no uso da congelação criogénica no que respeita à qualidade final do produto uma vez que este apresenta uma clara melhoria das suas propriedades globais em especial na oleosidade e sabor. Por outro lado, demonstra-se que a congelação clássica permite uma maior contenção de custos associados à congelação uma vez que possibilitou uma poupança de dois milhões de Euros após um funcionamento ao longo de 11 anos, segundo os pressupostos estabelecidos. Constatou-se que a crio-congelação deverá ser aplicada no processamento de produtos de elevado valor comercial, ou em locais onde as tarifas eléctricas tenham um valor elevado, ou ainda em produtos que, devido à sua constituição, assim o exija. Considerando estas conclusões principais, o estudo inviabiliza, neste momento, o uso de azoto líquido na congelação total de camarão dentro do território de Moçambique para comércio em Portugal.
Resumo:
Tem havido no país, nos últimos anos, crescente interesse por questões vinculadas à área tradicionalmente denominada vigilância epidemiológica (que se denominou vigilância em saúde pública). Tem-se defendido, em muitas publicações, o ponto de vista que o fácil acesso a computadores e programas estatísticos deve facilitar a utilização de procedimentos mais sofisticados na análise de dados provenientes de sistemas de vigilância. Considerando que esta colocação, de forma ampla e indiscriminada, pode levar a análises que não tem sustentação teórica formal, apresenta-se posicionamento a respeito. Esclarece-se sobre o que se entende por vigilância em saúde pública e descreve-se, de modo resumido e não-tecnicista, as exigências dos procedimentos estatísticos de estimação por intervalo e de testes de hipóteses estatísticas. Comenta-se sobre a origem dos dados de vigilância e o seu caráter não-amostral e a ausência de aleatoriedade. Discute-se alguns procedimentos descritivos que são e devem ser usados sem prejuízo da qualidade da análise. Com base na literatura, são apresentados alguns procedimentos que têm sido propostos mas que, para sua inclusão rotineira na análise de dados, ainda carecem de mais investigação.
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.
Resumo:
O estudo baseou-se na alteração do processo de desidratação de rotina, em que foi suprimida a concentração intermédia (96%) de etanol, com o intuito de tentar diminuir o tempo do processamento histológico sem provocar alterações nos tecidos. Objectivo do estudo: verificar se existem diferenças significativas a nível tecidular e celular em diferentes tipos de tecidos entre o método de desidratação de rotina e o alternativo.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
Exemplifica-se a aplicação de análise multivariada, por estratificação e com regressão logística, utilizando dados de um estudo caso-controle sobre câncer de esôfago. Oitenta e cinco casos e 292 controles foram classificados segundo sexo, idade e os hábitos de beber e de fumar. As estimativas por ponto dos odds ratios foram semelhantes, sendo as duas técnicas consideradas complementares.
Resumo:
São relatados os dados sobre cesáreas no Estado de São Paulo, entre 1987 e 1993, e verificadas as associações entre a prática de cesáreas e o desenvolvimento social e econômico, adotando como unidades de análise os Escritórios Regionais de Saúde (ERSAs) e os hospitais. Foi realizado estudo transversal, com base em dados secundários, tendo sido estudadas as seguintes variáveis: taxas de cesáreas em 1987, 1992 e 1993 de hospitais e regiões; tipo de prestador; vínculo com ensino médico; coeficiente de mortalidade infantil tardia; número de bancos por habitantes (BANCOS); e potencial de consumo da cidade-sede da região por habitantes (POTCONS). As taxas de cesárea no período foram cerca de 48% no Estado de São Paulo; nos ERSAs, entre 21,3 (Capão Bonito) e 85,2% (São José do Rio Preto, 1987); as hospitalares variaram entre zero e 100%, sendo mais altas nos hospitais privados (56% em 1993). Os hospitais universitários apresentaram taxas estáveis, cerca de 39%. Na regressão linear múltipla, BANCOS e POTCONS explicaram 48% da variação das taxas regionais. Questiona-se a estabilização da taxa estadual, pois os dados sugerem que está havendo deslocamento da moda das taxas hospitalares para valores mais altos. É necessária uma reorientação da assistência ao nascimento, uma vez que a cesárea, além de seu caráter de procedimento médico, adquiriu o de bem de consumo, um sintoma da perversa lógica que vem se instalando no sistema de saúde.
Resumo:
Discute-se o uso da "linkage" dos Sistemas Oficiais de Informação de Nascido Vivo (SINASC) e de Óbitos (SIM) em estudos de mortalidade neonatal. Essa técnica baseia-se na "ligação" dos bancos de dados obtidos a partir das informações existentes nesses sistemas, o que possibilita o emprego de estudos do tipo de coorte. O estudo foi realizado no Município de Santo André, Região Metropolitana de São Paulo, Brasil. São apresentados os cuidados metodológicos que foram empregados para evitar a presença de viéses de seleção e de efeito, que podem ocorrer. O uso da "linkage" mostrou-se operacionalmente viável, permitindo obter as probabilidades de morte e os riscos relativos dos nascidos vivos, expostos e não expostos, às variáveis que são objeto de registro na declaração de nascido vivo, identificando-se, desta maneira, os recém-nascidos de risco. Essa técnica, de baixo custo operacional, visto que utiliza dados já registrados, permite um dimensionamento mais adequado da assistência pré-natal e ao parto.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.