968 resultados para Armazenamento de dados
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
Segundo O`Kane et al, em 2008, foi demonstrado que 88,9% dos erros laboratoriais são realizados na fase pré-analítica. No laboratório de análises clínicas, o sistema de controle da qualidade pode ser definido como toda a ação sistemática necessária para dar confiança e segurança em todos os exames e prevenir a ocorrência de erros. O tempo de armazenamento pode variar de dias a meses ou mesmo anos, influenciando na definição da temperatura de estocagem. O armazenamento de longo prazo pode resultar na criopreservação inadequada para determinados analitos e pode desnaturar as lipoproteínas. Objetivos: Este trabalho teve como objetivo avaliar a fase pré-analítica, controle da qualidade interno e também avaliar o efeito do congelamento (- 80C) quanto ao tempo de armazenamento do soro e plasma de sangue colhido com ácido etilenodiamino tetra-acético (EDTA). As dosagens foram realizadas no Laboratório de Lípides LabLip, e estocadas em - 80 C por três anos, as mesmas foram redosadas no Serviço de Patologia Clínica da Policlínica Piquet Carneiro da UERJ com metodologias iguais e realizada a comparabilidade dos resultados. Foram analisados o perfil lipídico (CT, HDLc e TG) e PCR-US de 103 amostras, 73 no soro e 30 no plasma em dois laboratórios altamente qualificados. Discussão: Após redosagem foram encontrados nas dosagens de HDLc e CT resultados diminuídos respectivamente (correlação coeficiente no soro 0,48 e 0,62) teste t pareado no soro (CT p 0,0012 e HDLc p 0,0001). Conclusões: Os dados obtidos nas avaliações dos resultados de diferentes laboratórios e tempo de estocagem revelaram que as amostras quando armazenadas por um longo período após redosagem no soro, apresentaram diferenças em certos analitos, tais como CT e HDLc, no qual obteve-se resultados significativamente diminuídos, diferentemente no plasma, que após três anos de estocagem a -80C foram redosados e aplicados no teste t pareado, os analitos CT e PCR-US mantiveram a estabilidade.
Resumo:
Resinas macias para reembasamento de próteses são largamente utilizadas após cirurgias para estabilizarem a prótese e condicionarem o tecido, aguardando a completa cicatrização. É importante que o material não seja facilmente colonizado por biofilme oral e se possível, evite a contaminação do sítio cirúrgico. Objetivou-se avaliar o efeito da incorporação de clorexidina às resinas acrílicas macias para o reembasamento de próteses totais, através de análises de liberação, citotoxicidade e efeito inibitório de um biofilme de C. albicans. Foram confeccionados corpos de provas (CDPs) com as resinas Trusoft e Coe-soft, com incorporação de 0%, 0,5%, 1,0% e 2,0% de clorexidina, totalizando 8 grupos. A liberação de clorexidina foi avaliada através da mensuração da mudança na densidade óptica da solução de armazenamento, na qual ficaram imersos os CDPs, por espectrometria UV, a cada 48 horas, durante 40 dias. A citotoxicidade celular foi avaliada em fibroblastos (linhagem L929), que ficaram 24 horas em contato com meio de cultura no qual os CDPs ficaram previamente imersos, pela técnica de absorção de corante vermelho neutro após 24, 48 e 72 horas e semanalmente até o 28 dia. E, por fim, a atividade antifúngica contra a C. albicans (ATCC 10231) foi avaliada de duas maneiras: (1) teste de difusão em ágar, no qual os CDPs foram colocados em placas de BHI previamente inoculadas com C. albicans, com medição do halo de inibição após 48 horas de incubação a 37C; (2) a avaliação da inibição da formação de um biofilme de C. albicans sobre a superfície dos CDPs pela quantificação por metil tetrazólio (MTT) a cada 48 horas, durante 22 dias, com leitura feita em espectrofotômetro de UV. Os dados obtidos foram inseridos no programa SigmaStat (versão 3.1, USA) para realizar as análises estatísticas. As diferenças estatísticas foram determinadas por análises de variâncias do tipo ANOVA e todos os procedimentos para comparações múltiplas pareadas foram feitos utilizando-se o método Holm-Sidak, com nível de significância global igual a 0,05. A clorexidina adicionada às resinas testadas foi capaz de ser liberada para o meio de armazenagem, proporcionalmente à quantidade de clorexidina incorporada, porém com diferentes cinéticas de liberação entre as resinas, visto que a Trusoft libera até 71% do total de clorexidina liberada nas primeiras 48 horas e a Coe-soft, até 44%. Ambas as resinas com incorporação de clorexidina apresentaram efeito citotóxico adicional, se comparadas às resinas sem clorexidina, porém para a Coe-soft não houve diferença estatística dos valores, apenas para a Trusoft (p<0,001). Ocorreu formação de halo de inibição proporcionalmente às concentrações de resinas adicionadas, com maiores halos para a resina Trusoft (p<0,001), e sem formação de halo para as resinas sem clorexidina; a inibição da formação de biofilme, realizada somente com a resina Coe-soft, mostrou total inibição durante 8, 12 e 16 dias, para a incorporação de 0,5%, 1,0% e 2,0% respectivamente, sendo uma diminuição estatisticamente significativa (p<0,001) em relação à resina sem incorporação de clorexidina, que não apresentou inibição do biofilme.
Resumo:
A estatística é uma ciência com seus conceitos e métodos de coleta, organização e analise de informações que fazem parte dos currículos escolares da educação básica, na prática dos professores de matemática, para que os alunos compreendam, analisem e formem opinião crítica em relação às questões econômicas e sociais. A presente pesquisa buscou refletir sobre as práticas pedagógicas do professor de matemática no ensino de estatística no ensino médio, tendo como base as orientações para o ensino de estatísticas nas propostas dos Parâmetros Curriculares do Ensino Médio, as contribuições da aprendizagem significativa no ensino de estatística, com o uso das tecnologias na educação, através da proposta de planos de trabalho que abordem os conteúdos do ensino de estatística e a utilização do software livreCalc. Em relação aos caminhos metodológicos foi realizada uma pesquisa bibliográfica, utilizando o método de abordagem dedutivo, através de documentação indireta tendo como fonte de pesquisa os trabalhos científicos com foco no ensino e na aprendizagem da Estatística e da Probabilidade na Educação Básica. O desenvolvimento desta pesquisa possibilitou evidenciar caminhos metodológicos a serem desenvolvidos por professores de matemática na educação básica que contribuam na interpretação de dados do cotidiano a partir de análise de tabelas, análise de gráficos, medidas de posição, medidas de dispersão e linhas de tendência, utilizando como ferramentas as Tecnologias da Informação e Comunicação tendo como fundamentação teórica as contribuições de David Ausubel o conceito de aprendizagem significativa.
Resumo:
Esta dissertação apresenta a avaliação térmica, econômica e ambiental de um sistema de aquecimento solar (SHS) que é usado em uma usina de asfalto, através de simulação computacional com TRNSYS. O processo escolhido é o aquecimento do betume a partir da temperatura de armazenamento até a temperatura de mistura, usando óleo mineral como fluido de transferência de calor (HTF). Os componentes do sistema são o trocador de calor HTF-betume, o coletor concentrador solar parabólico composto (CPC), o aquecedor auxiliar e a bomba de circulação. A simulação no TRNSYS calcula os balanços de massa e energia no circuito fechado do HTF a cada hora. Dados horários do Ano Meteorológico Típico (TMY) do Rio de Janeiro foram utilizados para executar este trabalho. Em muitos casos, a temperatura do HTF ultrapassou 238C, mostrando que o CPC é apropriado para esta aplicação. Economia de combustível e emissões evitadas foram consideradas para as análises economica e ambiental. Este trabalho descreve as fontes renováveis de energia, os tipos de usinas de asfalto e de aquecedores de betume. Ele também mostra a fração brasileira de algumas destas fontes. Os resultados, portanto, mostram ser possível encorajar políticas públicas ambientalmente corretas para incentivar o uso de energia solar na indústria de asfalto. Além disso, este trabalho pode ajudar na redução da elevada emissão dos gases de efeito estufa a partir da utilização dos combustíveis fósseis nesta indústria.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
A perda de vegetação natural e o aumento das superfícies impermeáveis decorrentes da expansão urbana têm mostrado que os tradicionais sistemas de drenagem urbana são insuficientes e pouco adaptáveis às alterações de uso do solo. Uma das consequências disso é o aumento da velocidade do escoamento superficial (runoff) que favorece as inundações, com enormes prejuízos materiais e ambientais. As inundações ocorrem geralmente quando ha ocorrência de chuvas de alta intensidade. O objetivo deste trabalho foi estudar a contribuição dos telhados verdes modulares submetidos a chuvas de alta intensidade, 155mm/h com duração de 7,0 minutos para retenção e retardo do escoamento superficial. Além disso, foram determinados valores para parâmetros de modelos clássicos chuva-vazão: Método Racional (C) e CN (SCS), que poderá, futuramente, servir de modelagem hidrológica dos impactos da adoção de telhados verdes no controle das enchentes urbanas. A metodologia adotada foi de natureza experimental e envolveu a construção de bancadas com inclinação regulável para suporte dos módulos experimentais e um sistema para indução de chuvas com intensidade controlada. Foram estudados três modelos de sistema modular para telhado verde que permitem o armazenamento de água no fundo da bandeja que compõe os módulos, sendo 2 de 17,0 L (M-17 e F-17) e 1 de 4,0 L (M-4), nas condições de solo seco e solo úmido. Em cada módulo vegetado foram utilizadas 3 espécies de vegetação: Portulaca oleracea (Onze horas), Callisia repens (Dinheiro em penca) e Apnia cordfolia (Rosinha do sol). Os resultados demonstraram que os volumes retidos, calculados a partir da observação do runoff, nas diferentes situações, foram coerentes entre si e com dados relatados na literatura. Os módulos vegetados produziram os melhores resultados com solo seco e os piores resultados com solo úmido. O percentual médio de retenção, considerando todos os tipos de módulos, foi de 58% do volume total de água induzida, com retardo médio de 12 minutos no runoff. Os valores médios de C (Método Racional) foram 0,4, 0,48, 0,36, para os módulos M-17, M-4 e F-17, respectivamente e os de CN (SCS) foram 93, 95, 93, para os mesmos módulos. Conforme esperado, os maiores valores de CN foram para solos úmidos, mantendo a relação que quanto menor o volume retido, maior o runoff e o CN. O módulo F-17 foi o que apresentou melhor desempenho em todos os aspectos (redução do escoamento, retenção hídrica e retardo do runoff). Este estudo demonstra a boa contribuição que esse tipo de sistema pode proporcionar na retenção e retardo do escoamento superficial, mesmo para chuvas intensas de curta duração, principalmente após período de curta estiagem, situação comum em locais de clima tropical. Futuros estudos deverão avaliar o desempenho dos sistemas modulares de telhados verdes com outras características e intensidades de chuvas. A adoção de telhados verdes deve ser cautelosa, sobretudo pela carga extra que esse tipo de sistema representa.
Resumo:
Esta dissertação tem como objetivo principal apresentar aos professores a matemática que é utilizada em diversas atividades da indústria do petróleo para serem apresentadas em sala de aula como aplicações práticas de diversos conceitos que são ministrados desde o ensino fundamental até o superior. Assim, possui o intuito de desenvolver no aluno a percepção da importância de se aprender matemática, criando um estímulo a mais em seus estudos. O trabalho se refere especificamente ao Terminal Aquaviário da Baía de Guanabara (TABG), pertencente à empresa de petróleo Petrobras Transporte S/A (TRANSPETRO), no qual labora o autor. São apresentados os diversos cálculos utilizados nas variadas atividades do dia a dia do TABG. Por fim, são sugeridas algumas atividades que podem ser aplicadas em sala de aula
Resumo:
O trabalho aqui apresentado teve como objetivo, avaliar o método de Eaton (1975) aplicado ao cálculo de pressão de poros das formações rochosas em subsuperfície, utilizando dados de perfis de poços no que diz respeito a porosidade, tais como, o Tempo de Transito da onda compressional, Resistividade, Densidade e Neutrão. Posteriormente foi avaliado o resultado alcançado por esta técnica e confrontado com o dado obtido pelo registro de pressão real da formação, adquirido pela ferramenta de perfilagem MDT. Distribuídos em 6 poços perfurados na porção sul da Bacia de Campos, o intervalo cronoestratigráfico estudado está compreendido no período geológico Terciário, e os registros de pressão real da formação foram adquiridos nos reservatórios turbidíticos da Formação Carapebus (Eoceno). Apesar de existir um mecanismo causador de anomalia de pressão na bacia (Desequilíbrio de Compactação Difícil migração dos fluidos ao longo do tempo geológico) devido ao forte aporte sedimentar sustentado pelo soerguimento da Serra do Mar no Eoceno, os resultados encontrados não apontaram qualquer tipo de alteração nas respostas dos perfis utilizados, onde a referência foi a assinatura do perfil sônico em um trend normal de compactação compreendido por rochas argilosas dentro do intervalo cronoestratigráfico estudado. O presente trabalho atesta que a boa calibração do trend de ompactação normal em rochas argilosas, juntamente com a similaridade entre o resultado obtido pelo cálculo da pressão de poros a partir do perfil sônico, e os valores reais registrados diretamente na formação, pela ferramenta de registro de pressões (MDT), comprovam a aplicabilidade do método de Eaton (1975) para o cálculo de geopressões a partir de um conjunto básico de perfis de poços tais como: Raios Gama, Resistividade, Velocidade Acústica, Densidade e Neutrão
Resumo:
A obesidade é um dos maiores problemas de saúde pública que cresce em todo o mundo, resultante de um desequilíbrio entre ingestão alimentar e gasto energético. Pode-se dizer que a obesidade é o principal fator de risco para o desenvolvimento de doenças crônicas de maior prevalência como dislipidemias, doenças cardiovasculares, diabetes do tipo 2 e esteatose hepática não alcóolica, acarretando na redução da qualidade e expectativa de vida. A Grelina é um hormônio sintetizado pelo estômago, que atua em diferentes tecidos através de um receptor específico (GHS-R1a), incluindo hipotálamo e tecidos periféricos, como o fígado. Esse hormônio está envolvido no comportamento alimentar e adiposidade, modulando o armazenamento ou utilização dos substratos energéticos no coração, músculo esquelético, adipócitos e fígado, além disso, revela-se de grande importância na manutenção do metabolismo energético hepático. Estes dados suportam a hipótese de que as vias de sinalização responsivas à grelina são um importante componente da regulação do metabolismo energético hepático e da homeostase glicêmica. O objetivo deste trabalho, foi estudar o metabolismo energético hepático e a sinalização da grelina em camundongos Swiss adultos obesos submetidos a dieta ocidental rica em gordura saturada e carboidratos simples. Avaliamos o efeito desta dieta a partir do 21 dia de idade (desmame) até o 133 dia destes animais, através de parâmetros biométricos e bioquímicos, avaliação histomorfológica, respirometria de alta resolução, conteúdo de glicogênio hepático e conteúdo de algumas proteínas envolvidas na sinalização de insulina e grelina, além do metabolismo energético hepático. Baseado em nossos resultados observamos que o consumo de dieta ocidental rica em gordura saturada e carboidrato simples durante 16 semanas causa hiperfagia, levando ao quadro de obesidade na idade adulta e prejuízo nas vias de sinalização dos hormônios insulina e grelina, que são importantes moduladores do metabolismo energético hepático, favorecendo o desenvolvimento de esteatose hepática não alcoólica.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.