998 resultados para Genética - Processamento de dados
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.
Resumo:
O estudo baseou-se na alteração do processo de desidratação de rotina, em que foi suprimida a concentração intermédia (96%) de etanol, com o intuito de tentar diminuir o tempo do processamento histológico sem provocar alterações nos tecidos. Objectivo do estudo: verificar se existem diferenças significativas a nível tecidular e celular em diferentes tipos de tecidos entre o método de desidratação de rotina e o alternativo.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
A constatação relativa às importantes transformações que têm vindo a ocorrer na biomedicina, em virtude dos inúmeros avanços em áreas como a genética e a biologia molecular, fornecem-nos elementos de análise bastante relevantes para a compreensão das reconfigurações que a tecnociência tem imprimido nas ciências da vida. Tomando esta evidência como ponto de partida, pretende-se com este trabalho desenvolver uma abordagem ancorada numa reflexão acerca do modo como as noções de Risco e de Incerteza são equacionadas pela ciência moderna. O questionamento crítico destas noções permitir-nos-á, assim, analisar dois aspectos fundamentais. Por um lado, o modo como o pensamento moderno se posiciona teórica e epistemologicamente face aos paradoxos e complexas margens de indeterminação que sempre decorrem da actividade técnico-científica, e por outro, analisar quais as finalidades que subjazem à vontade da ciência e da técnica em controlarem a realidade nas suas múltiplas e variadas dimensões.
Resumo:
Exemplifica-se a aplicação de análise multivariada, por estratificação e com regressão logística, utilizando dados de um estudo caso-controle sobre câncer de esôfago. Oitenta e cinco casos e 292 controles foram classificados segundo sexo, idade e os hábitos de beber e de fumar. As estimativas por ponto dos odds ratios foram semelhantes, sendo as duas técnicas consideradas complementares.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
Perda auditiva: elevada prevalência da perda auditiva (14,1%), efeitos na comunicação, efeitos em aspectos psicossociais, cognitivos, da fala e linguagem. Avaliação da perda auditiva: baseia-se nos testes audiométricos psicoacústicos, base audiometria tonal, que permite estimar a sensibilidade auditiva (normal vs anormal), permite classificar o tipo e grau de perda auditiva, avaliação qualitativa com a utilização de escalas desenvolvidas para esse efeito, HHIA (Hearing Handicap Inventory for Adults), instrumento desenvolvido a partir do HHIE (Hearing Handicap Inventory for the Elderly), para ser usado com pacientes de idade inferior a 65 anos.
Resumo:
As mortes por causas externas correspondem a grande parcela de óbitos em, praticamente, todos os países do mundo, ocupando, sempre, a segunda ou terceira colocação. Porém a sua distribuição quanto ao tipo de causa é diversa. Com o objetivo de estudar a mortalidade por causas externas, segundo o tipo de causa, sexo e idade, foi descrita a situação dessas mortes no Brasil e capitais, no período 1977 a 1994. Foram calculados os coeficientes de mortalidade por causas externas e a mortalidade proporcional, utilizando os dados de mortalidade fornecidos pelo Sistema de Informação de Mortalidade do Ministério da Saúde, e a população foi estimada baseada nos dados censitários de 1970, 1980 e 1991. Os resultados mostraram que, em números absolutos, os óbitos por causas externas quase dobraram no período de 1977 a 1994, passando a ser a segunda causa de morte no País. O coeficiente de mortalidade, em 1994, foi de 69,8/100.000 habitantes e o maior crescimento se deu nos óbitos do sexo masculino. Os coeficientes de mortalidade masculinos são, aproximadamente, 4,5 vezes o valor dos femininos. As causas externas representaram a primeira causa de morte dos 5 aos 39 anos, sendo a maior ocorrência na faixa etária dos 15 a 19 anos (65% dos óbitos por causas externas). Além do aumento, parece estar ocorrendo um deslocamento das mortes para faixas etárias mais jovens. A mortalidade por causas externas, segundo tipo, mostra que durante o período analisado houve aumento tanto nos óbitos por acidentes de trânsito, quanto por homicídios, tendo os suicídios permanecido, praticamente, constantes. No grupo de acidentes classificados como "demais acidentes" houve leve aumento, devido, principalmente, às quedas e afogamentos. Nas capitais dos Estados a mortalidade por causas externas apresentam valores mais altos que a média brasileira, com exceção de algumas áreas do Nordeste. As capitais da região Norte apresentaram algumas das maiores taxas para o País. Já na região Nordeste apenas Recife, Maceió e Salvador apresentaram níveis muito elevados em relação ao País. Vitória, Rio de Janeiro e São Paulo, na região Sudeste, apresentaram os maiores coeficientes do País e Belo Horizonte apresentou declínio no período de estudo. Na região Sul houve aumento nas taxas, bem como na região Centro-Oeste, que teve aumento homogêneo em suas capitais. Esse aumento observado nas diferentes capitais apresentou diferenciais quanto ao tipo de causa externa. Os suicídios não representaram problema de Saúde Pública em nenhuma delas. Os acidentes de trânsito em Vitória, Goiânia, Macapá, Distrito Federal e Curitiba tiveram sua situação agravada. Os homicídios tiveram aumento expressivo em Porto Velho, Rio Branco, Recife, São Luís, Vitória, São Paulo, Curitiba, Porto Alegre, Cuiabá e Distrito Federal. No período estudado houve o crescimento da importância das causas externas para a população brasileira, chamando atenção, principalmente, o aumento dos homicídios. A qualidade das estatísticas de mortalidade por causas externas depende da colaboração do médico legista, e essa qualidade não é a mesma para todas as capitais estudadas.
Resumo:
A presente dissertação pretende conceber e implementar um sistema de controlo tolerante a falhas, no canal experimental de rega da Universidade de Évora, utilizando um modelo implementado em MATLAB/SIMULINK®. Como forma de responder a este desafio, analisaram-se várias técnicas de diagnóstico de falhas, tendo-se optado por técnicas baseadas em redes neuronais para o desenvolvimento de um sistema de detecção e isolamento de falhas no canal de rega, sem ter em conta o tipo de sistema de controlo utilizado. As redes neuronais foram, assim, os processadores não lineares utilizados e mais aconselhados em situações onde exista uma abundância de dados do processo, porque aprendem por exemplos e são suportadas por teorias estatísticas e de optimização, focando não somente o processamento de sinais, como também expandindo os horizontes desse processamento. A ênfase dos modelos das redes neuronais está na sua dinâmica, na sua estabilidade e no seu comportamento. Portanto, o trabalho de investigação do qual resultou esta Dissertação teve como principais objectivos o desenvolvimento de modelos de redes neuronais que representassem da melhor forma a dinâmica do canal de rega, de modo a obter um sistema de detecção de falhas que faça uma comparação entre os valores obtidos nos modelos e no processo. Com esta diferença de valores, da qual resultará um resíduo, é possível desenvolver tanto o sistema de detecção como de isolamento de falhas baseados nas redes neuronais, possibilitando assim o desenvolvimento dum sistema de controlo tolerante a falhas, que engloba os módulos de detecção, de isolamento/diagnóstico e de reconfiguração do canal de rega. Em síntese, na Dissertação realizada desenvolveu-se um sistema que permite reconfigurar o processo em caso de ocorrência de falhas, melhorando significativamente o desempenho do canal de rega.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
Apresentação das actividades realizadas no Departamento de Genética Humana com particular destaque para a investigação desenvolvida pelo grupo de Toxicologia Genética. Introdução à visita dos alunos aos laboratórios de genética.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.