999 resultados para base de dados
Resumo:
A separação de dados hiperespectrais pretende determinar quais as substâncias presentes numa imagem e quais as suas concentrações em cada pixel. Esta comunicação apresenta um método não-supervisionado, denominado de Análise de Componentes Dependentes (DECA), que efectua a separação destes dados automaticamente. Este método assume que cada pixel é uma mistura linear das assinaturas (reflectâncias ou radiâncias) das substâncias presentes pesadas pelas respectivas concentrações (abundâncias). Estas abundâncias são modeladas por misturas de distribuições de Dirichlet, que por si garantem as restrições de não-negatividade e soma unitária impostas pelo processo de aquisição. A matriz de assinaturas é estimada por um algoritmo Esperança-Maximização generalizado (GEM). O método DECA tem um desempenho melhor que os métodos baseados em análise de componentes independentes e que os métodos baseados na geometria dos dados. Nesta comunicação apresentam-se resultados desta metodologia, com dados simulados (baseados em reflectâncias espectrais da base de dados do laboratório USGS) e com dados hiperespectrais reais adquiridos pelo sensor AVIRIS, ilustrando a potencialidade da técnica.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão do Território especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
RESUMO - Objetivos: Estudos anteriores demonstraram a existência de uma relação inversa entre melhores outcomes e volume hospitalar. Tendo este fenómeno em consideração, o objetivo deste estudo foi analisar esta relação a um nível populacional em Portugal. Métodos: Análise da base de dados Portuguesa dos GDH relativos ao ano financeiro de 2009. Todas as STA e STJ foram contabilizadas e critérios de exclusão determinados, para selecionar duas amostras homogéneas, analisadas por volume hospitalar. O volume hospitalar foi definido em três grupos: HVB, HVM, HVE de acordo com o volume anual de procedimentos efetuado por cada hospital individual durante o período do estudo. Os outcomes avaliados incluíram a mortalidade, presença de pelo menos uma complicação cirúrgica, estadia prolongada assim como a média de dias de internamento. A idade e sexo foram controlados como possíveis fatores de confundimento. Resultados: A investigação principal consistiu na análise de 4615 STA e 5904 STJ. Os resultados indicam que os eventos adversos (mortalidade e complicações cirúrgicas) são pouco comuns nestes procedimentos, produzindo resultados sem significância estatística. A estadia prolongada estabeleceu uma clara e significativa relação inversa com o volume hospitalar. A estadia prolongada foi superior em hospitais de volume baixo (STA OR 2.71; STJ OR 2.17) e hospitais de volume médio (STA OR 1.72; STJ OR 1.73) quando comparados com hospitais de volume elevado. Os dias de internamento médios produziram uma associação semelhante, sendo possível estimar quase oito milhões e meio de euros de custos evitáveis no ano de 2009, em ambos os procedimentos. Conclusões: O volume hospitalar não apresentou relações significativas com a mortalidade e complicações cirúrgicas, devido ao baixo número de eventos adversos registados. Verificou-se, no entanto, uma associação significativa com os dias de internamento e estadia prolongada. As STA e STJ realizadas em hospitais de volume elevado poderão reduzir custos, ao diminuir os dias de internamento.
Resumo:
Análises comparativas vêm sendo cada vez mais utilizadas para definir e relacionar os tipos de vegetação existentes no Brasil. Para tanto, cada pesquisador vem montando seu próprio banco de dados, usualmente elaborando um sistema com uma finalidade imediata e descartado ao término do projeto ou pesquisa. Essa prática leva ao desperdício de tempo, esforço, dinheiro e, principalmente, informação. Então, um sistema de banco de dados específico para armazenar e gerenciar informações advindas de levantamentos florísticos e, ou, fitossociológicos poderia padronizar, estruturar logicamente, evitar ou eliminar sobreposição de esforços, reduzir os custos e também promover oportunidade para que cientistas de diversas áreas compartilhem informações. Com esses objetivos e para suprir uma necessidade imediata de organizar uma base de dados, foi desenvolvido o FITOGEO. O sistema foi elaborado com a finalidade de gerenciar informações oriundas de listas florísticas ou de levantamentos fitossociológicos, variáveis ambientais associadas a estas listas e taxonômicas. O FITOGEO mantém a integridade dos dados, é centrado na ‘espécie’ e tem a capacidade de integrar dados e metadados de várias fontes. Apresenta duas interfaces: uma de características florísticas ou fitossociológicas, com todas as informações oriundas do levantamento em si, tanto das espécies quanto da metodologia adotada, e das variáveis ambientais associadas, como coordenadas geográficas, altitude, temperatura e precipitação. E outra taxonômica, resgatando informações como nome corrigido e o nome válido das espécies cadastradas e níveis hierárquicos supra-específicos.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Dissertação de mestrado integrado em Engenharia de Gestão e Sistemas de Informação
Prevalência de transtornos ansiosos e algumas comorbidades em idosos: um estudo de base populacional
Resumo:
RESUMO Objetivo Avaliar a prevalência de transtornos ansiosos e fatores associados em uma amostra populacional de idosos do Sul de Santa Catarina. Métodos Estudo transversal com base em dados populacionais, que avaliou 1.021 indivíduos idosos entre 60 e 79 anos. Foram realizadas entrevistas domiciliares para aferição de variáveis sobre transtornos ansiosos, por meio do questionário MINI, dados sociodemográficos, hipertensão arterial sistêmica (HAS), infarto agudo do miocárdio (IAM) e dosagem de colesterol. Resultados As prevalências entre os transtornos ansiosos foram de 22,0% para o transtorno de ansiedade generalizada (TAG); 14,8% para fobia social (FS); 10,5% para transtorno do pânico (TP); e 8,5% para o transtorno obsessivo-compulsivo (TOC). Além disso, 40,5% dos indivíduos apresentaram pelo menos um transtorno de ansiedade. A distribuição dos transtornos foi semelhante nos dois gêneros; TAG foi mais prevalente nos indivíduos de menor escolaridade; TOC foi mais presente em indivíduos casados ou em união estável. Em relação às variáveis clínicas, HAS foi associada à presença de TOC; FS foi associada com IAM; TOC e FS foram associados com HDL > 40 mg/dL. Conclusão Os dados demonstram que os quadros de ansiedade são muito frequentes em idosos da comunidade, se sobrepõem de forma significativa e estão associados a algumas variáveis clínicas cardiovasculares.
Resumo:
FUNDAMENTO: Há escassez de dados no Brasil para subsidiar a crescente preocupação sobre o impacto econômico das doenças cardiovasculares (DCV). OBJETIVO: Estimar os custos referentes aos casos de DCV grave no Brasil. MÉTODOS: O número de casos de DCV grave foi estimado a partir das taxas de letalidade e mortalidade dos pacientes hospitalizados. Estudos observacionais e bancos de dados nacionais foram utilizados para estimar os custos referentes à hospitalização, atendimento ambulatorial e benefícios pagos pela previdência. A perda da renda foi estimada com base nos dados do estudo de Carga de Doenças no Brasil. RESULTADOS: Aproximadamente dois milhões de casos de DCV grave foram relatados em 2004 no Brasil, representando 5,2% da população acima de 35 anos de idade. O custo anual foi de, pelo menos, R$ 30,8 bilhões (36,4% para a saúde, 8,4% para o seguro social e reembolso por empregadores e 55,2% como resultado da perda de produtividade), correspondendo a R$ 500,00 per capita (para a população de 35 anos e acima) e R$ 9.640,00 por paciente. Somente nesse subgrupo, os custos diretos em saúde corresponderam por 8% do gasto total do país com saúde e 0,52% do PIB (R$ 1.767 bilhões = 602 bilhões de dólares), o que corresponde a uma média anual de R$ 182,00 para os custos diretos per capita (R$ 87,00 de recursos públicos) e de R$ 3.514,00 por caso de DCV grave. CONCLUSÃO: Os custos anuais totais para cada caso de DCV grave foram significativos. Estima-se que tanto os custos per capita como aqueles correspondentes ao subgrupo de pacientes com DCV grave aumentem significativamente à medida que a população envelhece e a prevalência de casos graves aumente.
Resumo:
Actualmente, com o crescente avanço da informática, é de suma importância que todos os sectores de serviço, sejam eles públicos ou privados, sejam informatizados, pois a informatização nos proporciona tomar decisões rápidas com informações precisas no momento correcto. Este relatório relata as actividades desenvolvidas durante o estágio, realizado na empresa ADA Soluções, com o inicio no mês de Maio até mês de Novembro do ano em curso. Tratase do desenvolvimento de um Sistema de Odontologia (Sistema Integrado de Gestão de Clínica Odontologia - Odonto), mas concretamente, o módulo de registo dos dados que atenda às necessidades da Clínica de Odontologia nos registos de informações ali geradas. O Sistema será uma grande fonte de informação que ampliará e popularizará a participação e a interacção dos envolvidos no uso do sistema. Os recursos do sistema proporcionarão um poderoso ambiente para desenvolvimento e ampliação de ferramentas para inserção das informações na base de dados. O sistema Integrado de Gestão de Clínica Odontologia tem como objectivos permitir gerar Bases de Dados de pesquisa; prover um sistema adequado às necessidades e demandas, com facilidade de implementação de novas funcionalidades; Permitirá o gerir de uma forma integrada das bases de dados nele inseridas, possibilitando o armazenamento, actualização, recuperação e disseminação de informações de forma simples e rápida. Congrega à sua estrutura algumas características relevantes, como rapidez e flexibilidade na captura, gestão e recuperação de informações, além de oferecer facilidade de uso. Para isso foram utilizadas algumas técnicas e ferramentas do mundo computacional, que contribuíram para que os objectivos propostos fossem atingidos de forma plena. As actividades foram divididas da seguinte forma: levantamento de dados sobre a secção envolvida, análise dos dados recebidos, modelagem do sistema, criação da base de dados e desenvolvimento do sistema. A análise do sistema foi feita através da Linguagem Unificada de Modelagem, e posteriormente, foi feita a modelagem utilizando a ferramenta Visual Paradigm for UML, versão 6.4. Para o desenvolvimento do sistema utilizou-se o ambiente da plataforma Oracle Application Express com a linguagem de programação PL/SQL para a base de dados. A escolha de tais ferramentas se deu pelo facto de serem ferramentas de grande credibilidade no mercado e serem utilizadas por diversos desenvolvedores e empresas de desenvolvimento.
Resumo:
Este trabalho baseia-se na análise de dados do desemprego em Cabo Verde nos anos de 2006 e 2008, usando informação da base de dados do INE e IEFP. Partindo da análise dos dados em estudo vai-se procurar descrever e perspectivar metodologias que contemplam as variáveis qualitativas e quantitativas com significado social positivo para a sociedade deste país. Após a introdução no capítulo 1, fez-se, no capítulo 2, a análise exploratória dos dados do desemprego em Cabo Verde referente aos anos 2006 e 2008. No capítulo 3 estudam-se associações entre variáveis, usando a metodologia de tabelas contingência, através da realização de testes de independência e testes de homogeneidade, e análise de medidas de associação. As variáveis usadas, vão ser essencialmente, o escalão etário, o género e o ano. O capítulo 4 é dedicado ao estudo de modelos Log - lineares em tabela de contingência, finalizando-se o trabalho com a apresentação das principais conclusões.
Resumo:
O Brasil ocupa uma posição de destaque em estudos de solos tropicais, em razão do enorme volume de informações levantadas sobre os solos do país. Entretanto, a disponibilização dessas informações tem-se mostrado pouco eficiente. Com o intuito de ampliar as possibilidades de utilização de uma base de dados de solos de abrangência nacional, elaborada a partir de levantamentos pedológicos de grande amplitude, procedeu-se à sua reestruturação, atualizando a classificação dos perfis de solo que a constituem, seguida de uma avaliação quanto à sua representatividade e potencial para análises qualitativas. Para isso, os dados foram organizados em formato de banco de dados e a classificação pedológica atualizada de acordo com a versão mais recente do Sistema Brasileiro de Classificação de Solos, até o quarto nível categórico. Essa atualização foi, em geral, bastante satisfatória, sobretudo nos três primeiros níveis hierárquicos, com maiores restrições no subgrupo, conforme a análise dos graus de confiabilidade adotados para expressar a exatidão no ajuste do enquadramento taxonômico. Desse modo, ao suprir a carência de uma nomenclatura unificada e ajustada aos critérios atuais que regem a classificação de solos no Brasil, constituiu-se um banco de dados comparável qualitativamente com variáveis externas, como distribuição geográfica, altitude e tipos climáticos. As avaliações realizadas a partir dessa base evidenciaram uma boa representatividade da distribuição dos perfis na grande maioria dos estados da federação, assim como em relação às condições ambientais representadas por zonas e tipos climáticos da classificação de Köppen. Entretanto, não foram constatadas correlações estreitas entre estas variáveis e as classes de solo em nível de ordem, embora algumas tendências gerais tenham sido observadas, como uma significativa proporção de perfis de Vertissolos e Luvissolos sob clima semi-árido (BS). De forma semelhante, a altitude de onde ocorrem as classes de solos foi também muito variável, mas os valores de quartis e mediana indicaram algumas faixas preferenciais. Assim, Cambissolos e Latossolos tendem a ocupar os níveis mais altos da paisagem brasileira, ao passo que 75 % dos perfis de Espodossolos e de Plintossolos situam-se em cotas inferiores a 200 m. Além das potencialidades de uso evidenciadas, a estruturação atual da base de dados permite outras aplicações para atender necessidades específicas de estudo, inclusive no que tange a investigações relacionadas ao sistema de classificação de solos que vem sendo desenvolvido no país.
Resumo:
A estimativa do escoamento superficial em bacias hidrográficas é de suma importância para conservação dos recursos naturais; entretanto, esse é um processo complexo e dinâmico, principalmente no contexto de sua variabilidade espacial. Dessa forma, torna-se adequada a aplicação dos Sistemas de Informações Geográficas (SIG) usando pequenas células de informação, pois assim é possível considerar o comportamento espacial das variáveis associadas à origem do escoamento superficial. Este trabalho teve como objetivo implementar os modelos hidrológicos Curva Número (CN-SCS) e Curva-Número Modificado (CN-MMS), com base na linguagem de programação do SIG PCRaster e em uma base de dados reduzida, de forma distribuída e dinâmica, com o intuito de estimar as lâminas de escoamento superficial geradas numa bacia hidrográfica de Latossolos, localizada no município de Nazareno, região dos Campos das Vertentes, Minas Gerais. Para aplicação do modelo CN-SCS foi preciso desenvolver um mapa com valores de CN no formato do PCRaster, enquanto para o modelo CN-MMS foram necessários os seguintes mapas: umidade volumétrica de saturação do solo, umidade volumétrica inicial do solo e profundidade de solo. Para simulação e avaliação de ambos os modelos, foram aplicados 18 eventos de chuva natural que provocaram escoamento superficial, durante o ano hidrológico 2004-2005, e suas respectivas lâminas de escoamento observadas. A análise do desempenho dos modelos foi feita aplicando-se análise de sensibilidade baseada no erro médio e na Raiz do Erro Quadrático (REQ). Tendo-se como referência essas estatísticas de precisão, pôde-se constatar que o modelo CN-MMS apresentou melhor calibração quando comparado ao modelo CN-SCS, devido à consideração direta da umidade inicial do solo. Contudo, a estruturação dos modelos no SIG PCRaster possibilitou o desenvolvimento de uma ferramenta computacional eficaz e útil para simulação do escoamento superficial, visto que propicia estruturação de rotinas computacionais considerando os problemas associados à variabilidade espacial dos dados de entrada dos modelos.