76 resultados para Hospitais - Processamento de dados
Resumo:
O estudo baseou-se na alteração do processo de desidratação de rotina, em que foi suprimida a concentração intermédia (96%) de etanol, com o intuito de tentar diminuir o tempo do processamento histológico sem provocar alterações nos tecidos. Objectivo do estudo: verificar se existem diferenças significativas a nível tecidular e celular em diferentes tipos de tecidos entre o método de desidratação de rotina e o alternativo.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.
Resumo:
Perda auditiva: elevada prevalência da perda auditiva (14,1%), efeitos na comunicação, efeitos em aspectos psicossociais, cognitivos, da fala e linguagem. Avaliação da perda auditiva: baseia-se nos testes audiométricos psicoacústicos, base audiometria tonal, que permite estimar a sensibilidade auditiva (normal vs anormal), permite classificar o tipo e grau de perda auditiva, avaliação qualitativa com a utilização de escalas desenvolvidas para esse efeito, HHIA (Hearing Handicap Inventory for Adults), instrumento desenvolvido a partir do HHIE (Hearing Handicap Inventory for the Elderly), para ser usado com pacientes de idade inferior a 65 anos.
Resumo:
A presente dissertação pretende conceber e implementar um sistema de controlo tolerante a falhas, no canal experimental de rega da Universidade de Évora, utilizando um modelo implementado em MATLAB/SIMULINK®. Como forma de responder a este desafio, analisaram-se várias técnicas de diagnóstico de falhas, tendo-se optado por técnicas baseadas em redes neuronais para o desenvolvimento de um sistema de detecção e isolamento de falhas no canal de rega, sem ter em conta o tipo de sistema de controlo utilizado. As redes neuronais foram, assim, os processadores não lineares utilizados e mais aconselhados em situações onde exista uma abundância de dados do processo, porque aprendem por exemplos e são suportadas por teorias estatísticas e de optimização, focando não somente o processamento de sinais, como também expandindo os horizontes desse processamento. A ênfase dos modelos das redes neuronais está na sua dinâmica, na sua estabilidade e no seu comportamento. Portanto, o trabalho de investigação do qual resultou esta Dissertação teve como principais objectivos o desenvolvimento de modelos de redes neuronais que representassem da melhor forma a dinâmica do canal de rega, de modo a obter um sistema de detecção de falhas que faça uma comparação entre os valores obtidos nos modelos e no processo. Com esta diferença de valores, da qual resultará um resíduo, é possível desenvolver tanto o sistema de detecção como de isolamento de falhas baseados nas redes neuronais, possibilitando assim o desenvolvimento dum sistema de controlo tolerante a falhas, que engloba os módulos de detecção, de isolamento/diagnóstico e de reconfiguração do canal de rega. Em síntese, na Dissertação realizada desenvolveu-se um sistema que permite reconfigurar o processo em caso de ocorrência de falhas, melhorando significativamente o desempenho do canal de rega.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
Uma rede neuronal artificial consiste no processamento de elementos (análogos aos neurónios do sistema neuronal biológico) inter conectados em rede. As redes neuronais artificiais possuem duas grandes forças: por um lado, são instrumentos poderosos na modelização e compreensão do comportamento cognitivo humano; por outro, têm fortes propriedades de reconhecimento de padrões, sendo capazes de reconhecer padrões mesmo entre dados variáveis, ambíguos e confusos (Refenes, 1995, citado por Koskivaara, 2000). Por esta razão, a aplicação desta nova tecnologia à auditoria tem vindo a acentuar-se. O objectivo deste trabalho consiste em apresentar os fundamentos das redes neuronais artificiais, bem como as principais áreas de aplicação à auditoria. Entre estas descata-se a detecção de erros materialmente relevantes. Os auditores estabelecem a natureza, extensão, profundidade e oportunidade dos procedimentos de auditoria com base na investigação resultante de flutuações e relações que sejam inconsistentes com outra informação relevante ou que se desviem de quantias previstas. Ora, os modelos de rede neuronais permitem captar padrões relevantes detectados na informação financeira, estabelecendo correlações entre os dados dificilmente percepcionadas pelos meios tradicionalmente utilizados pelos auditores. Outras áreas da auditoria em que as redes neuronais se têm mostrado instrumentos válidos de auxílio ao julgamento dos auditores são a avaliação do risco de gestão fraudulenta, a avaliação do princípio da continuidade e a avaliação do controlo interno da entidade auditada.
Resumo:
Mestrado em Intervenção Sócio-Organizacional na Saúde. Área de especialização: Políticas de Administração e Gestão de Serviços de Saúde
Resumo:
Introdução – A mamografia é o principal método de diagnóstico por imagem utilizado no rastreio e diagnóstico do cancro da mama, sendo a modalidade de imagem recomendada em vários países da Europa e Estados Unidos para utilização em programas de rastreio. A implementação da tecnologia digital causou alterações na prática da mamografia, nomeadamente a necessidade de adaptar os programas de controlo de qualidade. Objetivos – Caracterizar a tecnologia instalada para mamografia em Portugal e as práticas adotadas na sua utilização pelos profissionais de saúde envolvidos. Concluir sobre o nível de harmonização das práticas em mamografia em Portugal e a conformidade com as recomendações internacionais. Identificar oportunidades para otimização que permitam assegurar a utilização eficaz e segura da tecnologia. Metodologia – Pesquisa e recolha de dados sobre a tecnologia instalada, fornecidos por fontes governamentais, prestadores de serviços de mamografia e indústria. Construção de três questionários, orientados ao perfil do médico radiologista, técnico de radiologia com atividade em mamografia digital e técnico de radiologia coordenador. Os questionários foram aplicados em 65 prestadores de serviços de mamografia selecionados com base em critérios de localização geográfica, tipo de tecnologia instalada e perfil da instituição. Resultados – Foram identificados 441 sistemas para mamografia em Portugal. A tecnologia mais frequente (62%) e vulgarmente conhecida por radiografia computorizada (computed radiography) é constituída por um detector (image plate) de material fotoestimulável inserido numa cassete de suporte e por um sistema de processamento ótico. A maioria destes sistemas (78%) está instalada em prestadores privados. Aproximadamente 12% dos equipamentos instalados são sistemas para radiografia digital direta (Direct Digital Radiography – DDR). Os critérios para seleção dos parâmetros técnicos de exposição variam, observando-se que em 65% das instituições são adotadas as recomendações dos fabricantes do equipamento. As ferramentas de pós-processamento mais usadas pelos médicos radiologistas são o ajuste do contraste e brilho e magnificação total e/ou localizada da imagem. Quinze instituições (em 19) têm implementado um programa de controlo de qualidade. Conclusões – Portugal apresenta um parque de equipamentos heterogéneo que inclui tecnologia obsoleta e tecnologia “topo de gama”. As recomendações/guidelines (europeias ou americanas) não são adotadas formalmente na maioria das instituições como guia para fundamentação das práticas em mamografia, dominando as recomendações dos fabricantes do equipamento. Foram identificadas, pelos técnicos de radiologia e médicos radiologistas, carências de formação especializada, nomeadamente nas temáticas da intervenção mamária, otimização da dose e controlo da qualidade. A maioria dos inquiridos concorda com a necessidade de certificação da prática da mamografia em Portugal e participaria num programa voluntário. ABSTRACT - Introduction – Mammography is the gold standard for screening and imaging diagnosis of breast disease. It is the imaging modality recommended by screening programs in various countries in Europe and the United States. The implementation of the digital technology promoted changes in mammography practice and triggered the need to adjust quality control programs. Aims –Characterize the technology for mammography installed in Portugal. Assess practice in use in mammography and its harmonization and compliance to international guidelines. Identify optimization needs to promote an effective and efficient use of digital mammography to full potential. Methodology – Literature review was performed. Data was collected from official sources (governmental bodies, mammography healthcare providers and medical imaging industry) regarding the number and specifications of mammography equipment installed in Portugal. Three questionnaires targeted at radiologists, breast radiographers and the chief-radiographer were designed for data collection on the technical and clinical practices in mammography. The questionnaires were delivered in a sample of 65 mammography providers selected according to geographical criteria, type of technology and institution profile. Results – Results revealed 441 mammography systems installed in Portugal. The most frequent (62%) technology type are computerized systems (CR) mostly installed in the private sector (78%). 12% are direct radiography systems (DDR). The criteria for selection of the exposure parameters differ between the institutions with the majority (65%) following the recommendations from the manufacturers. The use of available tools for post-processing is limited being the most frequently reported tools used the contrast/ brightness and Zoom or Pan Magnification tools. Fifteen participant institutions (out of 19) have implemented a quality control programme. Conclusions – The technology for mammography in Portugal is heterogeneous and includes both obsolete and state of the art equipment. International guidelines (European or American) are not formally implemented and the manufacturer recommendations are the most frequently used guidance. Education and training needs were identified amongst the healthcare professionals (radiologists and radiographers) with focus in the areas of mammography intervention, patient dose optimization and quality control. The majority of the participants agree with the certification of mammography in Portugal.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Especialização: Ressonância Magnética.
Resumo:
Este documento foi escrito para retratar o trabalho desenvolvido como tese de mestrado “Desenvolvimento de um Programa/Base de dados para o controlo automático da Engenharia/Manutenção Aeronáutica”. O programa criado tem como objectivo de gerir a aeronavegabilidade de uma frota de aeronaves, traduzindo todos os requisitos da autoridade que rege a aeronáutica na Europa. O mesmo fundamenta-se no desenvolvimento de um software aplicado a uma empresa que faz a gestão contínua da aeronavegabilidade de um operador aéreo. A sua realização implica conhecer todas as tarefas na gestão contínua de aeronavegabilidade dentro de uma empresa certificada Part M. Para esse conhecimento foi preciso um estudo sobre todas as entidades, manuais e definições envolventes a essa função. A base da construção do programa foi o anexo II, requisitos exigidos pelo INAC para aprovar um programa desse género. Para uma melhor abordagem foi preciso uma revisão de conceitos da manutenção industrial resultantes da Manutenção Aeronáutica e demais. Num início, comeca-se por definir através de vários pontos de vista a manutenção, planeamento da manutenção, noções de fiabilidade e teorias fiabilisticas que estão na base do desenvolvimento de programas de manutenção, seguido de uma explicação sucinta do que é uma empresa que gere aeronavegabilidade de um operador aéreo. É fei3 ta uma explicação de todas as tarefas para manter todo o material de voo aeronavegável segundo o INAC . No capítulo III temos uma explicação de todas as teorias usadas na manutenção aeronáutica na evolução de programas de manutenção de aeronaves passando pelo MSG1 até à filosofia actual usada no desenvolvimento de programas de manutenção na aeronáutica, MSG3. O capítulo IV descreve todos os documentos técnicos envolvidos na gestão de aeronavegabilidade, desde os manuais emitidos pelo fabricante, passando pelos documentos emitidos pelas autoridades aeronáuticas e documentos técnicos produzidos pelo próprio operador aéreo. No capítulo V é descrita uma organização Part M, subpart G, as tarefas mais importantes na gestão contínua de aeronavegabilidade e as responsabilidades da mesma perante a autoridade aeronáutica nacional e tambem define todo o tipo de manutenção exigida a um operador aéreo para manter o seu material de voo aeronavegável sempre atendendo à segurança. Este capítulo define todo o tipo de trabalho a realizar, desde as manutenções mais leves realizadas na placa com o avião em trânsito até às grandes manutenções realizadas num Hangar e apoiodas por oficinas de especialidade. O capítulo VI descreverá o que foi feito. Este capítulo descreve sucintamente tudo o que foi feito, as razões da criação das tabelas, consultas, formulários e relatórios e importância desses na dinâmica da gestão de aeronavegabilidade. Depois de explicar a razão da criação de todas as tabelas, consultas e formulários segue-se um subcapítulo com dados de manutenção fornecidos gentilmente por uma empresa no ramo de forma a poder demostrar como o programa funciona. O último subcapítulo tem algumas considerações finais sobre aquilo que foi feito e aquilo que deveria ser feito com o objectivo de desempenhar de forma automática todoss os requisitos de gestão de aeronavegabilidade. O capítulo VIII tem algumas recomendações futuras a alguém que quiser dar uma continuidade a esse projecto que pode tornar-se muito interessante para uma empresa Part M.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
A exposição a formaldeído é reconhecidamente um dos mais importantes factores de risco presente nos laboratórios hospitalares de anatomia patológica. Neste contexto ocupacional, o formaldeído é utilizado em solução, designada comummente por formol. Trata-se de uma solução comercial de formaldeído, normalmente diluída a 10%, sendo pouco onerosa e, por esse motivo, a eleita para os trabalhos de rotina em anatomia patológica. A solução é utilizada como fixador e conservante do material biológico, pelo que as peças anatómicas a serem processadas são previamente impregnadas. No que concerne aos efeitos cancerígenos, a primeira avaliação efectuada pela International Agency for Research on Cancer data de 1981, actualizada em 1982, 1987, 1995 e 2004, considerando-o como um agente cancerígeno do grupo 2A (provavelmente carcinogénico). No entanto, a mais recente avaliação, em 2006, considera o formaldeído no Grupo 1 (agente carcinogénico) com base na evidência de que a exposição a este agente é susceptível de causar cancro nasofaríngeo em humanos. Constituiu objectivo principal do estudo desenvolvido caracterizar a exposição profissional a formaldeído em laboratórios hospitalares de anatomia patológica. O estudo incidiu sobre 10 laboratórios hospitalares de anatomia patológica situados em Portugal Continental. Foi avaliada a exposição dos trabalhadores considerando três grupos profissionais (Técnicos de Anatomia Patológica, Médicos Anatomo-Patologistas e Auxiliares) por comparação com dois referenciais de exposição (VLE-CM e VLE-MP) e, ainda, considerados os valores de concentração máxima em 83 actividades desenvolvidas nos laboratórios pertencentes à amostra. Foram aplicados simultaneamente dois métodos distintos de avaliação ambiental: um dos métodos (Método 1) fez uso de um equipamento de leitura directa com o princípio de medição por Photo Ionization Detection, com uma lâmpada de 11,7 eV, realizando-se, simultaneamente, o registo da actividade de trabalho − foram assim obtidos dados para o referencial de exposição da concentração máxima (CM); o outro método (Método 2) traduziu-se na aplicação do método NIOSH 2541, implicando o uso de bombas de amostragem eléctricas de baixo caudal e posterior processamento analítico das amostras por cromatografia gasosa − este método, por sua vez, facultou dados para o referencial de exposição da concentração média ponderada (CMP). A aplicação simultânea dos dois métodos de avaliação ambiental resultou na obtenção de resultados distintos, mas não contraditórios, no que concerne à avaliação da exposição profissional a formaldeído. Para as actividades estudadas (n=83) verificou-se que cerca de 93% dos valores são superiores ao valor limite de exposição definido para a concentração máxima (VLE-CM=0,3 ppm). O “exame macroscópico” foi a actividade mais estudada e onde se verificou a maior prevalência de resultados superiores ao valor limite (92,8%). O valor médio mais elevado da concentração máxima (2,04 ppm) verificou-se no grupo de exposição dos Técnicos de Anatomia Oatológica. No entanto, a maior amplitude de resultados observou-se no grupo dos Médicos Anatomo-Patologistas (0,21 ppm a 5,02 ppm). No que respeita ao referencial da Concentração Média Ponderada, todos os valores obtidos nos 10 laboratórios estudados para os três grupos de exposição foram inferiores ao valor limite de exposição definido pela Occupational Safety and Health Administration (TLV-TWA=0,75 ppm). Dado não se perspectivar a curto prazo a eliminação do formaldeído, devido ao grande número de actividades que envolvem ainda a utilização da sua solução comercial (formol), pode concluir-se que a exposição a este agente neste contexto ocupacional específico é preocupante, carecendo de uma intervenção rápida com o objectivo de minimizar a exposição e prevenir os potenciais efeitos para a saúde dos trabalhadores expostos.