92 resultados para Banco de dados - Gerencia


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Campanhas de amostragem são indispensáveis para o desenvolvimento da pesquisa e do planejamento de lavra. A perfilagem geofísica é um método de amostragem indireta, que vem se mostrando muito eficaz com o desenvolvimento de novas tecnologias para medições de grandezas físicas. Com baixo custo de operação e versatilidade de manuseio a perfilagem geofísica pode ser realizada concomitantemente com as operações de lavra, proporcionando reposta imediata do parâmetro medido. No entanto os métodos geofísicos de prospecção, por serem indiretos, não apresentam uma grande precisão e devido a isso os dados obtidos por perfilagem geofísica não podem ter a mesma importância que as informações obtidas por testemunhos de sondagem. O conceito de informação primária e secundária vem sendo amplamente discutido e aplicado devido à necessidade de uma melhoria do conhecimento do atributo geológico principal, desde que o mesmo se correlacione com algum outro parâmetro secundário. A redução de custos via aproveitamento de informações secundárias e métodos alternativos de amostragem também são fatores que influenciam essa aplicação Por este motivo, essa dissertação levanta o tema da aplicação de perfilagem geofísica de poço em depósitos de carvão para obtenção de informações secundárias. Concomitantemente a isso foram aplicadas metodologias capazes de combinar informações adquiridas por perfilagem geofísica, ou por um outro método, a um banco de dados obtido por amostragem com recuperação de testemunho. Concluiu-se que independente do método empregado para incorporação de informação secundária, as estimativas apresentam melhorias significativas quando comparadas com as estimativas sem a contemplação de informações secundárias. Conseqüentemente a aplicação de perfilagem pode ser uma ferramenta de extrema importância e confiável para obtenção de informação secundária e também para melhoria do planejamento de lavra para curto prazo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Através do banco de dados referente a granulometria (cascalho, areia, silte e argila), carbonato biogênico, carbono orgânico total (COT) e argilo-minerais (caulinita, esmectita, ilita e gibsita) do projeto MAPEM- Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Rasas), foi realizado este estudo visando avaliar os efeitos da perfuração dos poços BO-022H e BO-023H, localizados em talude continental superior, região sul da Bacia de Campos, Brasil, a 50 km da cidade de Cabo Frio, a 250m de profundidade. A promissora atividade de exploração e produção de petróleo e gás no Brasil tem exigido estudos detalhados do ambiente marinho, estes por sua vez deverão considerar desde a técnica de perfuração até a minuciosa alteração causada no substrato sedimentar. Nesta perspectiva foram coletadas amostras de sedimentos superficiais na região no em torno da área perfurada. Durante o cruzeiro I foram coletadas 48 amostras, no cruzeiro II, três meses após a perfuração, foram coletadas 61 amostras e no cruzeiro III, 22 meses após a perfuração, foram coletadas 54 amostras. Paralelamente foram amostradas 6 estações de controle. A preocupação é compreender quais são as alterações ambientas causadas pela perfuração, para isso as análises dos sedimentos geraram informações sobre a composição granulométrica, o teor carbonato biogênico e carbono orgânico total, e, composição mineralógica (argilo-minerais). Essas variáveis comparadas à variação espacial (área de monitoramento/estações de referência) e temporal (3 cruzeiros oceanográficos) permitiram compreender como o substrato sedimentar marinho reagiu a atividade de perfuração. Com o background da área, para os três cruzeiros oceanográficos, definiu-se os níveis médios das variáveis analisadas, identificando sinais de contaminação pela atividade de perfuração. Estes resultados demostram que a atividade de perfuração não promoveu alterações significativa nas propriedades sedimentares, que a variação dos valores de backgrounds, do cruzeiro II para o cruzeiro III, permaneceram muito próximo daqueles do cruzeiro I. Entre os argilo-minerais, a esmectita e a ilita , aumentaram, porém no cruzeiro III, os valores sofrem redução ficando muito próximo daqueles do cruzeiro I.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A responsabilização do gestor municipal de saúde pelo planejamento e avaliação do Sistema de Saúde tem aumentado com o processo de municipalização, tornando crescente a necessidade de obtenção de informações adequadas e rapidamente acessíveis ao processo de tomada de decisões gerenciais. Os Sistemas de Informação em Saúde (SIS) são potenciais apoiadores deste processo, mas poucos trabalhos têm verificado sua adequação às necessidades dos gestores municipais, e municípios pequenos podem ter dificuldades adicionais para disponibilizar recursos materiais e humanos necessários a seu aproveitamento adequado. Procurou-se conhecer as necessidades dos 337 municípios gaúchos com menos de 10 mil habitantes em termos de estrutura, utilização dos SIS e necessidades de informações, através de questionário auto-aplicado. Houve um retorno de 127 questionários (37%). A falta de estrutura para a utilização dos SIS não apareceu como problema crítico, sendo que todos os municípios possuíam computador para uso dos SIS (média de três) e 6% não tinham internet. Em 59,1% há análise de dados com geração de indicadores utilizados no planejamento e gerenciamento local, mas 36,2% têm dificuldades na utilização das informações que retornam do nível central por não terem acesso ou por não conseguirem compreendê-las. 4,7% acham que os SIS permitem gerar os indicadores necessários, satisfazendo plenamente suas expectativas, e dos que não utilizam ou utilizam muito pouco os dados dos SIS, 10% referem como causa a falta de computadores, 27,5% o treinamento insuficiente dos profissionais, 27,5% que não há necessidade de criar indicadores, que vêm prontos do nível central, e 25% que os SIS não permitem trabalhar o banco de dados, apenas sua alimentação. Identificou-se dificuldade na compreensão do termo indicadora, e foram citados freqüentemente como importantes para o planejamento local os mesmos utilizados nas pactuações com o Estado. O Estado precisa fornecer às coordenadorias regionais condições para que possam assumir seu papel de apoiadoras técnicas, auxiliando a organização administrativa dos municípios e o processo de planejamento e tomada de decisões, permitindo que eles identifiquem suas demandas e decidam localmente quais as informações relevantes para apoiar suas decisões.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Embora há muito tempo já se tenha conhecimento da importância da recuperação de informações temporais, não existe um SGBD temporal que tenha sido desenvolvido unicamente para aplicações comerciais, que supra todas as necessidades e abranja todos os aspectos temporais necessários a estas aplicações. O SGBD da Oracle, a partir da versão 8i, possibilita a inserção de características temporais similares às de tempo de transação no BD, através de um pacote de tempo denominado Time Series Cartridge. Entretanto, em muitos casos, a utilização deste cartucho de tempo não é suficiente para que se possa implementar por completo tudo o que foi especificado na modelagem do sistema. A modelagem completa da realidade só é alcançada se forem utilizadas em conjunto as características de tempo de transação e de tempo de validade no banco de dados. Neste trabalho são sugeridos e implementados mecanismos para a inserção e o gerenciamento do tempo de validade no SGBD Oracle. O tempo de validade é administrado através da execução de funções, procedimentos, gatilhos e objetos, organizados em forma de um pacote, de maneira que este possa ser utilizado em conjunto com o Time Series Cartridge.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: Ensaios clínicos comprovam que, na ausência de profilaxia, a incidência média de trombose venosa profunda (TVP) pode chegar a 19% em pacientes cirúrgicos. Apesar da existência de recomendações que orientam a prescrição de esquemas profiláticos, estudos mostram que apenas um terço dos pacientes recebem profilaxia adequada. Objetivo: Avaliar a utilização de heparinas para profilaxia cirúrgica em pacientes do Hospital de Clínicas de Porto Alegre (HCPA), comparando a prescrição com recomendações pré-estabelecidas pela Comissão de Protocolos do HCPA e recomendações descritas na literatura. Metodologia: O alvo dessa pesquisa foram pacientes com idade superior a 12 anos, de ambos os gêneros, submetidos a colecistectomias, curetagens uterinas, histerectomias, transplantes renais ou cirurgias de quadril no ano de 2003. Os prontuários foram localizados no Serviço de Arquivo Médico em Saúde (SAMIS). Foram analisadas as indicações e as prescrições de heparinas feitas para esses pacientes, comparando-as com as preconizadas pelas recomendações interna e externa. Para análise estatística, foi desenvolvido banco de dados no programa EpiInfo 6.0. Resultados: A amostra foi composta por 333 pacientes, predominantemente do sexo feminino (80,8%), com idade média de 42,8 (12-92) anos. Duzentos e cinqüenta e um (75,4%) apresentaram indicação para uso de profilaxia, dos quais 114 apresentaram paralelamente contra-indicação para essa prescrição. Apenas 95 (28,5%) pacientes fizeram uso de anticoagulantes. O fármaco mais utilizado foi heparina não-fracionada, na dose de 5.000 UI, com intervalo de 12 horas. A duração média da profilaxia foi 4,5 dias (1 a 20 dias). O seguimento da recomendação interna (esquema + indicação) ocorreu em 33,3% dos casos e da recomendação externa, em 25,2%. Momento de início da profilaxia foi o item do esquema de administração em que houve maior inconformidade. O uso de métodos profiláticos não-farmacológicos foi menor que o preconizado. Discussão e Conclusão: Os resultados encontrados estão de acordo com os de estudos semelhantes publicados na literatura e demonstram que, apesar do conhecimento existente, a prática de prescrição ainda não reflete os avanços da área. Para adequar a profilaxia, é de fundamental importância maior detalhamento e divulgação das recomendações entre os prescritores.