999 resultados para semeadora-adubadora de precisão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Estimar o efeito da taxa de cobertura de linhas telefônicas residenciais em potenciais vícios de informação em inquéritos epidemiológicos. MÉTODOS: Foram utilizadas as bases de dados da Pesquisa Nacional por Amostra de Domicílios no período de 1998 a 2003 para a estimativa das taxas de cobertura de linhas telefônicas residenciais nas cinco regiões geográficas brasileiras. Utilizou-se a regressão logística múltipla para identificar os fatores associados à posse de linha telefônica fixa. O impacto do vício nos intervalos com 95% de confiança foi avaliado em função da precisão alcançada em cada situação. RESULTADOS: Nas regiões metropolitanas Sudeste, Sul e Centro-Oeste com 70% e mais de cobertura, os vícios associados foram considerados desprezíveis. Nas demais regiões, os vícios relativos estavam acima do limite aceitável (0,4), indicando possíveis erros nas inferências construídas sob intervalo com 95% de confiança. A chance de acesso à linha telefônica residencial foi maior para população com cor da pele branca e maior escolaridade. CONCLUSÕES: Os achados mostram que o uso de cadastro de linhas telefônicas residenciais é indicado para a realização de inquéritos epidemiológicos apenas para estados com cobertura acima de 70%. Metodologias específicas para o tratamento de estimativas obtidas em localidades com taxas inferiores, precisam ser estudadas e divulgadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda o problema de detecção e desvio de obstáculos "SAA- Sense And Avoid" em movimento para veículos aéreos. Em particular apresenta contribuições tendo em vista a obtenção de soluções para permitir a utilização de aeronaves não tripuladas em espaço aéreo não segregado e para aplicações civis. Estas contribuições caracterizam-se por: uma análise do problema de SAA em \UAV's - Unmmaned Aerial Vehicles\ civis; a definição do conceito e metodologia para o projecto deste tipo de sistemas; uma proposta de \ben- chmarking\ para o sistema SAA caracterizando um conjunto de "datasets\ adequados para a validação de métodos de detecção; respectiva validação experimental do processo e obtenção de "datasets"; a análise do estado da arte para a detecção de \Dim point features\ ; o projecto de uma arquitectura para uma solução de SAA incorporando a integração de compensação de \ego motion" e respectiva validação para um "dataset" recolhido. Tendo em vista a análise comparativa de diferentes métodos bem como a validação de soluções foi proposta a recolha de um conjunto de \datasets" de informação sensorial e de navegação. Para os mesmos foram definidos um conjunto de experiências e cenários experimentais. Foi projectado e implementado um setup experimental para a recolha dos \datasets" e realizadas experiências de recolha recorrendo a aeronaves tripuladas. O setup desenvolvido incorpora um sistema inercial de alta precisão, duas câmaras digitais sincronizadas (possibilitando análise de informa formação stereo) e um receptor GPS. As aeronaves alvo transportam um receptor GPS com logger incorporado permitindo a correlação espacial dos resultados de detecção. Com este sistema foram recolhidos dados referentes a cenários de aproximação com diferentes trajectórias e condições ambientais bem como incorporando movimento do dispositivo detector. O método proposto foi validado para os datasets recolhidos tendo-se verificado, numa análise preliminar, a detecção do obstáculo (avião ultraleve) em todas as frames para uma distância inferior a 3 km com taxas de sucesso na ordem dos 95% para distâncias entre os 3 e os 4 km. Os resultados apresentados permitem validar a arquitectura proposta para a solução do problema de SAA em veículos aéreos autónomos e abrem perspectivas muito promissoras para desenvolvimento futuro com forte impacto técnico-científico bem como sócio-economico. A incorporação de informa formação de \ego motion" permite fornecer um forte incremento em termos de desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho serão apresentados e discutidos vários aspectos relacionados com células de combustível, com particular enfoque na modelação de células de combustível de membrana de permuta protónica. Este trabalho está dividido em vários capítulos. No Capítunlo 1 são apresentadas as motivações e os objectivos da tese. No Capítulo 2 serão apresentadas as células de combustível em geral, a sua origem, os diversos tipos, o que as diferencia das restantes tecnologias de geração de energia e as suas vantagens e desvantagens. No Capítulo 3 discute-se a modelação de células de combustível. Serão expostos e explicados os diferentes tipos de modelos, seguindo-se uma apresentação do modelo selecionado para estudo, com referência aos fundamentos teóricos exposição detalhada da fórmulação matemática e os parâmetros que caracterizam o modelo. É também apresentado a implementação do modelo em Matlab/Simulink. No Capítulo 4 será discutida e apresentada a abordagem utilizada para a identificação dos parâmetros do modelo da célula de combustível. Propõe-se e prova-se que uma abordagem baseada num algoritmo de optimização inteligente proporciona um método eficaz e preciso para a identificação dos parâmetros. Esta abordagem requer a existência de alguns dados experimentais que são também apresentados. O algoritmo utilizado designa-se por Optimização por Enxame de Partículas – Particle Swarm Optimization (PSO). São apresentados os seus fundamentos, características, implementação em Matlab/Simulink e a estratégia de optimização, isto é, a configuração do algoritmo, a definição da função objectivo e limites de variação dos parâmetros. São apresentados os resultados do processo de optimização, resultados adicionais de validação do modelo, uma análise de robustez do conjunto óptimo de parâmetros e uma análise de sensibilidade dos mesmos. O trabalho termina apresentando, no último capítulo, algumas conclusões, das quais se destacam: - O bom desempenho do algoritmo PSO para a identificação dos parâmetros do modelo da célula de combsutível; - Uma robustez interessante do algoritmo PSO, no sentido em que, para várias execuções do método resultam valores do parâmetros e da função objectivo com variabilidade bastante reduzidas; - Um bom modelo da célula de combustível, que quando caracterizado pelo conjunto óptimo de parâmetros, apresenta, sistematicamente, erros relativos médios inferiores a 2,5% para um conjunto alargado de condições de funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese descreve o desenvolvimento do hardware e do software de um sistema com a capacidade de reconhecer o número de passos que uma pessoa efectua durante uma actividade física. O sistema consiste num acelerómetro controlado por um microcontrolador, que comunica com um dispositivo móvel através de Bluetooth. De modo a realizar o sistema foi necessário analisar uma vasta bibliografia, para conhecer o estado da arte desta tecnologia, entender o princípio de funcionamento do protocolo Bluetooth e os conceitos biomecânicos por detrás da marcha humana. A proposta deste trabalho apresentava como elemento diferenciador do estado da arte o uso de um acelerómetro em conjunto com sensores de pressão. Com a conjugação destes sensores pretendia-se aumentar a precisão de um equipamento que normalmente não é reconhecido por essa característica. Contudo, a indisponibilidade dos sensores de pressão levou a que o sistema só fosse constituído pelo acelerómetro. Embora, o sistema foi projectado considerando que os sensores de pressão serão incluídos num futuro desenvolvimento. Neste trabalho foram desenvolvidos dois algoritmos para detectar os passos que uma pessoa executa, com pé onde é colocado o sensor, quando caminha ou corre. Num dos testes realizados o algoritmo da “aceleração composta” detectou 84% dos passos, enquanto o algoritmo da “aceleração simples”detectou 99%. A plataforma para a interface gráfica pretendia-se que fosse um telemóvel, contudo não foi possível obter um telemóvel que suporta-se o perfil SPP (Serial Port Profile), necessário para a comunicação com o módulo Bluetooth usado. A solução passou por usar como plataforma um computador portátil com Bluetooth, para o qual foi desenvolvido a aplicação “Pedómetro ISEP” em Visual Basic. O “Pedómetro ISEP” apresenta várias funcionalidades, entre elas destaca-se o cálculo da distância percorrida, da velocidade, e das calorias consumidas, bem como, o registo desses valores em tabelas e da possibilidade de desenhar os gráficos representativos do progresso do utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado compreendida no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre a contribuição da Fluorescência de Raios – X (FRX) no Zonamento de Georrecursos, com particular ênfase para a utilização do instrumento portátil e de ferramentas tecnológicas de vanguarda, indispensáveis à prospecção e exploração dos recursos minerais, designadamente na interpretação e integração de dados de natureza geológica e na modelação de métodos de exploração e processamento /tratamento de depósitos minerais, assim como do respectivo controlo. Esta dissertação discute os aspectos fundamentais da utilização da técnica de Fluorescência de Raios-X (portátil, FRXP), quanto à sua possibilidade de aplicação e metodologia exigida, com vista à definição de zonas com características químicas análogas do georrecurso e que preencham as exigências especificadas para a utilização da matéria-prima, nas indústrias consumidoras. Foi elaborada uma campanha de recolha de amostras de calcário proveniente da pedreira do Sangardão, em Condeixa–a–Nova, que numa primeira fase teve como objectivo principal a identificação da composição química da área em estudo e o grau de precisão do aparelho portátil de FRX. Para além desta análise foram, também, realizadas análises granulométricas por peneiração e sedimentação por Raios-X a amostras provenientes das bacias de sedimentação e do material passado no filtro prensa. Validado o método de análise por FRXP, realizou-se uma segunda fase deste trabalho, que consistiu na elaboração de uma amostragem bastante significativa de pontos, onde se realizaram análises por FRXP, de forma a obter uma maior cobertura química da área em estudo e localizar os locais chave de exploração da matéria-prima. Para uma correcta leitura dos dados analisados recorreu-se a ferramentas aliadas às novas tecnologias, as quais se mostraram um importante contributo para uma boa gestão do georrecurso em avaliação, nomeadamente o “XLSTAT” e o “Surfer” para tratamento estatístico dos dados e modelação, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade Internacional

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Gestão de Empresas (MBA), 19 de Fevereiro de 2016, Universidade dos Açores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ocorrência de fenómenos como deformações excessivas, deformações impostas, variações de temperatura, fluência e retracção entre outros são responsáveis pela diminuição do desempenho em serviço das estruturas de betão. Frequentemente, os projectistas valorizam em demasia a verificação da segurança em relação aos estados limites últimos, dedicando menos atenção à verificação dos estados limites de utilização, recorrendo a certas medidas construtivas que em casos usuais poderão ser suficientes. Em casos especiais como vãos consideráveis ou acções de elevada intensidade, estas medidas não garantem que a estrutura apresente a funcionalidade e a durabilidade desejáveis, impondo-se a necessidade de verificar os estados limites de utilização por métodos de cálculo mais fiáveis. Este factor, pode ser determinante para evitar certas anomalias de difícil resolução. A presente dissertação pretende documentar alguns métodos de cálculo utilizados no controlo da fendilhação, na limitação das tensões e no controlo das deformações segundo as mais recentes disposições regulamentares previstas para o efeito. Como os valores obtidos com a aplicação destes métodos são aproximações ao comportamento real dos elementos estruturais, procurou-se comparar estes resultados teóricos com situações reais, de forma a avaliar a sua precisão e fiabilidade. A degradação precoce das estruturas de betão, nem sempre se deve apenas à desvalorização da verificação dos estados limites de utilização em fase de projecto. Como os processos de produção destas estruturas são complexos e por vezes são negligenciadas boas práticas de construção, são propostas neste trabalho resumidamente algumas medidas construtivas que visam aumentar a durabilidade das estruturas e o seu desempenho em serviço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gestão dos sistemas eléctricos de energia assume um papel fundamental a vários níveis. Desde logo, o bom funcionamento (qualidade e continuidade de serviço) e a segurança da exploração apenas são conseguidos com um bom planeamento. Outro ponto importantíssimo é o aspecto económico. A este nível, os sistemas eléctricos representam um peso importante nas economias nacionais, uma vez que a energia é o motor do desenvolvimento. Nos tempos que correm, o aparecimento de grandes potências tem agitado os mercados energéticos, fazendo com que o preço dos produtos energéticos atinja máximos históricos. No primeiro capítulo deste trabalho, é feita uma introdução onde se apresenta e contextualiza o Despacho Óptimo na gestão global dos sistemas eléctricos de energia e como estes evoluíram nos últimos anos. O problema do Despacho Óptimo e todas as condicionantes/variáveis inerentes à sua resolução são aprofundados no capítulo 2. Primeiramente desprezando as perdas de transmissão das linhas, e depois com a sua contemplação. É, também, apresentado o métodos dos multiplicadores de Lagrange aplicado a este problema. No capítulo 3 é feita uma resenha da evolução dos métodos utilizados para a resolução do Despacho Óptimo, fazendo-se a destrinça entre os métodos clássicos e os mais recentes métodos heurísticos. A evolução que se tem verificado ao longo dos anos nos métodos utilizados, assim como o recurso ao cálculo computacional, devem-se à crescente complexidade dos Sistemas Eléctricos e à necessidade de rapidez e precisão nos resultados. Devido ao facto das centrais de produção de energia eléctrica funcionarem, não só com recurso a matérias-primas mas também através de recursos naturais que não têm um custo de aquisição, mas que não têm uma disponibilidade constante, existe a necessidade de se fazer uma gestão criteriosa na conjugação dos diversos tipos de produção. Como no nosso pais a grande alternativa às centrais térmicas são as hídricas, no capítulo 4 é apresentado o problema da coordenação hidro-térmica. No capítulo 5 é exposta a ferramenta computacional desenvolvida para a resolução do despacho óptimo com e sem perdas, que consiste num programa elaborado com o “software MatLab”. Este trabalho finaliza com um capítulo de conclusões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Descrever a variação temporal na prevalência de desnutrição infantil na região Nordeste do Brasil, em dois períodos sucessivos, identificando os principais fatores responsáveis pela evolução observada em cada período. MÉTODOS: Os dados analisados provêm de amostras probabilísticas da população de crianças menores de cinco anos estudadas por inquéritos domiciliares do programa Demographic Health Surveys realizados em 1986 (n=1.302), 1996 (n=1.108) e 2006 (n=950). A identificação dos fatores responsáveis pela variação na prevalência da desnutrição (altura para idade < -2 z) levou em conta mudanças na freqüência de cinco determinantes potenciais do estado nutricional, modelagens estatísticas da associação independente entre determinante e risco de desnutrição no início de cada período e cálculo de frações atribuíveis. RESULTADOS: A prevalência da desnutrição foi reduzida em um terço de 1986 a 1996 (de 33,9% para 22,2%) e em quase três quartos de 1996 a 2006 (de 22,2% para 5,9%). Melhorias na escolaridade materna e na disponibilidade de serviços de saneamento foram particularmente importantes para o declínio da desnutrição no primeiro período, enquanto no segundo período foram decisivos o aumento do poder aquisitivo das famílias mais pobres e, novamente, a melhoria da escolaridade materna. CONCLUSÕES: A aceleração do declínio da desnutrição do primeiro para o segundo período foi consistente com a aceleração de melhorias em escolaridade materna, saneamento, assistência à saúde e antecedentes reprodutivos e, sobretudo, com o excepcional aumento do poder aquisitivo familiar, observado apenas no segundo período. Mantida a taxa de declínio observada entre 1996 e 2006, o problema da desnutrição infantil na região Nordeste poderia ser considerado controlado em menos de dez anos. Para se chegar a este resultado será preciso manter o aumento do poder aquisitivo dos mais pobres e assegurar investimentos públicos para completar a universalização do acesso a serviços essenciais de educação, saúde e saneamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento da produção da fala tem sido ampla mente procurado, recorrendo à imagem por ressonância magnética (IRM), mas não é totalmente conhecido, particularmente no que diz respeito aos sons do Português Europeu (PE). O principal objectivo deste estudo foi a caracterização das vogais do PE. Com base na IRM recolheram-se conjuntos de imagens bidimensionais, em cinco posições articulatórias distintas, durante a produção sustentada do som. Após extracção de contornos do tracto vocal procedeu-se à reconstrução tridimensional, constatando-se que a IRM fornece in formação morfológica útil e com considerável precisão acerca da posição e forma dos diferentes articuladores da fala.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretendeu desenvolver e testar um sensor óptico para detectar ciclamato de sódio, um adoçante artificial utilizado nas bebidas em geral. A primeira abordagem neste sentido baseou-se na preparação de um sensor óptico através da formação de complexos corados entre o ciclamato e várias espécies metálicas, nomeadamente Hg(II), Ba(II), Fe(II), Ag(II), Pb(II), Cd(II), Mn (II), Ni(II), Cu(II), Co(II), Sn(II) e Mg(II). Perante a ausência de resultados satisfatórios optou-se por explorar a acção do ciclamato de sódio na transferência/partilha de um corante entre duas fases líquidas imiscíveis. As fases líquidas utilizadas foram a água e o clorofórmio. Testaram-se várias famílias de corantes mas só uma classe se mostrou com as características apropriadas para o objectivo pretendido. Dentro dessa família de corantes, seleccionou-se aquele que, à partida, garantiu o melhor desempenho. O sensor foi testado em diferentes condições de pH e também na presença de potenciais interferentes de forma a estabelecer as melhores condições de utilização. O método mostrou-se bastante simples de executar, rápido na obtenção de resultados e com boas características para ser avaliado visualmente, mas sempre de acordo com os critérios de objectividade que um trabalho deste tipo requer. Além o disso permitiu ser calibrado de uma forma rápida e simples, características essenciais para a aplicação deste método na despistagem de ciclamato em análises de rotina. O método desenvolvido foi ainda aplicado à análise de vinho dopado com diferentes concentrações de ciclamato de sódio. Destes testes verificou-se a necessidade de optimização do método através da introdução de outras substâncias na fase não aquosa diminuindo a vulnerabilidade do sensor a outros interferentes. Como conclusão, o método correspondeu às expectativas, mostrando-se viável para aplicação à análise de vinhos, ainda com uma margem significativa de desenvolvimento no sentido de o tornar mais fiável e preciso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar o uso de medidas de comorbidade para predizer o risco de óbito em pacientes brasileiros. MÉTODOS: Foram utilizados dados de internações obtidos do Sistema de Informações Hospitalares do Sistema Único de Saúde, que permite o registro de somente um diagnóstico secundário. Foram selecionadas 1.607.697 internações ocorridas no Brasil em 2003 e 2004, cujos diagnósticos principais foram doença isquêmica do coração, insuficiência cardíaca congestiva, doenças cérebro-vasculares e pneumonia. O Índice de Charlson e as comorbidades de Elixhauser foram as medidas de comorbidade utilizadas; o simples registro de algum diagnóstico secundário foi também empregado. A regressão logística foi aplicada para avaliar o impacto das medidas de comorbidade na estimava da chance de óbito. O modelo de base incluiu as seguintes variáveis: idade, sexo e diagnóstico principal. Os modelos de predição de óbitos foram avaliados com base na estatística C e no teste de Hosmer-Lemeshow. RESULTADOS: A taxa de mortalidade hospitalar foi 10,4% e o tempo médio de permanência foi 5,7 dias. A maioria (52%) das internações ocorreu em homens e a idade média foi 62,6 anos. Do total de internações, 5,4% apresentava um diagnóstico secundário registrado, mas o odds ratio entre óbito e presença de comorbidade foi de 1,93. O modelo de base apresentou uma capacidade de discriminação (estatística C) de 0,685. A melhoria nos modelos atribuída à introdução dos índices de comorbidade foi fraca - equivaleu a zero quando se considerou a estatística C com somente dois dígitos. CONCLUSÕES: Embora a introdução das três medidas de comorbidade nos distintos modelos de predição de óbito tenha melhorado a capacidade preditiva do modelo de base, os valores obtidos ainda são considerados insuficientes. A precisão desse tipo de medida é influenciada pela completitude da fonte de informação. Nesse sentido, o alto sub-registro de diagnóstico secundário, aliado à conhecida insuficiência de espaço para anotação desse tipo de informação no Sistema de Informações Hospitalares, são os principais elementos explicativos dos resultados encontrados.