999 resultados para Modelo de desagregação de dados
Resumo:
A mudança na estrutura dos custos, em função de novas tecnologias de produção, de uma maior diversificação imposta pela competitividade empresarial e da redução dos custos de medição, criou condições para o aparecimento de técnicas de gerenciamento de custos voltadas para a captação mais precisa das despesas indiretas que cada produto consome. Nesse mister destaca-se o Custeio Baseadoem- Atividades/Gerenciamento Baseado-em-Atividades (ABC/ABM) como uma das técnicas mais importantes surgidas nos últimos anos, que proporciona uma estimativa mais precisa das despesas indiretas reais que incidem em cada produto. Existem, contudo, certos custos cuja obtenção é difícil mesmo com a utilização de técnicas como o ABC. Isso se deve não só pela impossibilidade, em alguns casos, de serem determinados com adequada exatidão, como, em outros, pelo fato de o investimento na sua medição ultrapassar o benefício a ser obtido com ele. Nesse sentido, o presente trabalho desenvolve, para o fluxo de custos de uma empresa, inspirado na reconciliação de dados utilizada nos processos das plantas químicas, um modelo para a determinação de todos os custos indiretos, partindo do conhecimento preciso de alguns dos custos que compõem o citado fluxo de custos. O modelo desenvolvido utiliza programação matemática não-linear.
Resumo:
Foi elaborado um sistema para gerenciamento informatizado dos testes de controle de qualidade exigidos pela Portaria 453/98 da Secretaria de Vigilância Sanitária do Ministério da Saúde, visando otimizar sua execução, armazenamento e interpretação. Os testes de controle de qualidade são parte do programa de garantia de qualidade que deve ser implantado em toda instalação de radiodiagnóstico médico e odontológico. Para isso, foi elaborado um banco de dados utilizando o programa Microsoft Access®, permitindo comunicação direta com o sistema informatizado de gerenciamento das manutenções dos equipamentos de raios X, em implantação no Hospital Universitário Clementino Fraga Filho da Universidade Federal do Rio de Janeiro.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Biometria - IBB
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Educação, Programa de Pós-Graduação em Educação, 2016.
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica.
Resumo:
O conhecimento da magnitude das chuvas intensas é de fundamental importância para a elaboração de projetos hidráulicos e gerenciamento dos recursos hídricos em engenharia, além do dimensionamento de estruturas para o controle de erosão hídrica na conservação do solo. No entanto, informações sobre a intensidade da chuva só podem ser obtidas diretamente de pluviogramas, os quais nem sempre estão disponíveis no local de estudo, sendo mais comum a presença de dados de pluviômetro (chuva de "um dia"). Nesse caso, pode-se utilizar o método que desagrega as chuvas diárias em chuvas de 24 horas de duração e menores, possibilitando, assim, estimar as intensidades correspondentes. O estudo foi desenvolvido na Universidade do Estado de Santa Catarina (UDESC), em Lages (SC), durante o primeiro semestre de 1996. Utilizaram-se séries anuais de chuvas máximas de "um dia", obtidas de pluviômetros localizados em Lages e Campos Novos (SC), durante um período de 30 anos consecutivos (1966 a 1995). Aplicou-se a distribuição estatística de Gumbel para a obtenção das alturas de chuvas em períodos de retorno de 2, 5, 10, 15, 20, 25, 50 e 100 anos e, a partir destas, o modelo de desagregação de chuvas diárias, obtendo-se as alturas máximas esperadas para tempos de duração entre 24 horas e 5 minutos e suas respectivas intensidades máximas médias. Foram obtidas as curvas intensidade-duração-freqüência (I-D-F) para os tempos de retorno selecionados, bem como suas relações matemáticas. Para Lages, a equação da família de curvas I-D-F obtida foi: I = 2050TR0,20 (T + 29,41)-0,89 e, para Campos Novos, a equação foi I = 2157TR0,17(T + 29,42) -0,89: , em que i é a intensidade máxima média (mm h-1),T a duração (minuto) e TR o período de retorno (ano) das chuvas.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Ao longo de sua história a região do Vale Inferior do Tejo VIT foi abalada por vários sismos consideravelmente destrutivas, tendo alguns deles produzido significativas deformações nas estruturas marítimas localizadas no litoral a sudoeste do território Português; outros, moderados, foram produzidos por fontes locais, como os de 1344, 1531 e 1909. Nos últimos anos, devido à melhoria dos modelos de estrutura 3D e o desenvolvimento dos métodos numéricos, foram elaborados vários estudos de síntese de movimento forte do solo para a região do Baixo Tejo utilizando o método de diferenças finitas. Para confirmar o modelo de velocidades desta bacia usámos medidas de ruído sísmico, aplicámos um método baseado na razão espectral H/V, e, a partir destas curvas, por inversão, obtivemos um modelo de velocidades para a região estudada. Os resultados revelam uma boa concordância entre o modelo obtido e os dados geofísicos e geológicos recolhidos na mesma área._ ABSTRACT: Along his history the Lower Tagus Valley (LTV) area was shaken by several earthquakes. The largest reported had their origin in the southwestern part of Iberia. Other moderate earthquakes were produced by local sources such as the 1344, 1531 and the 1909. ln the last years, due to 3D structural model improvement and development in numerical methods, several studies have successful obtained strong-ground motion synthesis for the LVT region using finite difference method. To confirm the velocity model of the LTV sedimentary basin obtained by geophysical and geological data, we use broad-band microtremor measurements and application of the horizontal to vertical (H/V) spectral ratio method. We have obtained a velocity model for the studied region by inversion of the H/V curve. The results have good agreement geological and geophysical data.
Resumo:
Foi apresentado um modelo de atendimento multiprofissional para uso em hospital escola, embasado numa visão global da problemática de saúde da criança. A utilização do modelo, pela sistematização de dados considerados básicos, permite além da identificação específica das condições físicas e psico-sociais da criança, um conhecimento da situação familiar e caracterização da comunidade. Com estes elementos, torna-se factível a elaboração de um diagnóstico global, visando o tratamento da criança, a modificação de situações ambientais desfavoráveis à criança ou reforço de condições favoráveis a seu melhor crescimento e desenvolvimento. Esta abordagem, com relação à assistência, possibilita um tratamento que atenda às necessidades da criança nos seus aspectos biológico, cognitivo, afetivo e psicomotor. Com relação ao ensino, favorece a formação de profissionais com uma visão biológica e psico-social de saúde, dando oportunidade para desenvolvimento de trabalho em equipe multiprofissional. Em termos de pesquisa, permite a realização de estudos de normalização de atendimento nas áreas médica, de serviço social, de enfermagem, de nutrição e de educação para a saúde.
Resumo:
Na presente dissertação pretendemos averiguar da pertinência prática do actual modelo de protecção de dados clínicos, ou seja, se nele está devidamente consagrada a autonomia e a individualidade do utente; pretendemos ainda perceber a tendência evolutiva do sistema português de protecção de dados clínicos, nomeadamente a sua capacidade de inovação e adaptação aos sistemas internacionais, respeitando o nosso ordenamento jurídico. Concretamente, pretendemos perceber de que forma esta informação estará protegida, bem como até onde os utentes estarão consciencializados dos perigos que enfrentam. Embora este seja um problema mundial, o facto é que a Gestão do Sistema de Protecção de Dados Pessoais e Clínicos suscita polémica e interpretações diferentes, dada a sensibilidade ética do tema, a integridade humana. Além deste facto, estamos perante uma problemática que irá sempre envolver vários interesses e consequentemente um confronto de posições. Este trabalho procura ilustrar de que forma se lida com a gestão de dados pessoais no nosso país, de que modo se harmonizam os diferentes interesses e perspectivas, que prioridades se encontram na orientação governamental nesta matéria, quais as penalizações para os eventuais incumpridores e qual o futuro possível dos dados pessoais em saúde, tendo como objectivo comum uma eficácia e sustentabilidade dos mecanismos utilizados. Vamos encontrar interesses divergentes, compromissos permissivos ou restritivos de tratamento de dados, tendências que suportam interesses privados e públicos que se vão concretizar em escolhas eficientes de gestão de dados. Esta diversidade de comportamentos vai ser objecto de estudo e análise neste trabalho, procurando aferir das vantagens e desvantagens de um sistema de informação em saúde: universal com a população coberta, e integrado a fim de compartilhar informações de todos os pacientes, de todas as unidades de prestação de cuidados de saúde.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Matemática com especialização em Estatística pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia.
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.
Resumo:
O objetivo deste estudo é avaliar o modelo de previsão numérica do tempo BRAMS (Brazilian Regional Atmospheric Modelling System), a partir da comparação entre os valores preditos e os observados (dados do NCEP/NOAA (National Centers of Environmental Predictions/ National Oceanic and Atmospheric Administration) e do satélite TRMM (Tropical Rainfall Measuring Mission)). O modelo foi assimilado com dados do modelo global do NCEP/NOAA e do CPTEC/INPE. Foram realizadas comparações entre os valores preditos e os observados através da raiz do erro quadrático médio (RMSE) e do erro médio (ME) para os prognósticos de precipitação para os horizontes de 24, 48, 72 e 96 horas, do período de novembro de 2008 a março de 2009. Os resultados mostraram que o modelo BRAMS teve uma performance melhor quando assimilado com dados do modelo global do NCEP/NOAA comparado com as saídas a partir das assimilações do modelo global do CPTEC/INPE.