82 resultados para Catalogação - Processamento de dados
Resumo:
O crescimento da população e dos núcleos urbanos durante o século XX, sobretudo nos países em desenvolvimento, contribuiu para o aumento das áreas impermeáveis das bacias hidrográficas, com impactos importantes nos sistemas de drenagem urbana e na ocorrência de enchentes associadas. As enchentes trazem prejuízos materiais, na saúde e sociais. Recentemente, têm sido propostas práticas conservacionistas e medidas compensatórias, que buscam contribuir para o controle das enchentes urbanas, através do retardo do pico e amortecimento dos hidrogramas. Modelos matemáticos hidrológicos-hidráulicos permitem a simulação da adoção destas medidas de controle, demonstrando e otimizando sua localização. Esta dissertação apresenta os resultados da aplicação do modelo hidrológico Storm Water Management Model (SWMM) à bacia hidrográfica de estudo e representativa do rio Morto localizada em área peri-urbana em Jacarepaguá na cidade do Rio de Janeiro, com área de 9,41 km. O processamento do modelo SWMM foi realizado com o apoio da interface Storm and Sanitary Analysis (SSA), integrada ao sistema AutoCAD Civil 3D. Além da verificação da adequabilidade do modelo à representação dos sistemas hidrológico e hidráulico na bacia, foram desenvolvidos estudos para dois cenários como medidas de controle de enchentes: cenário 1, envolvendo implantação de um reservatório de detenção e, cenário 2, considerando a implantação de reservatórios de águas pluviais nos lotes. Os hidrogramas resultantes foram comparados ao hidrograma resultante da simulação nas condições atuais. Além disso, foram avaliados os custos associados a cada um dos cenários usando o sistema de orçamento da Empresa Rio Águas da PCRJ. Nas simulações foram adotadas a base cartográfica, e os dados climatológicos e hidrológicos previamente observados no contexto do projeto HIDROCIDADES, Rede de Pesquisa BRUM/FINEP, na qual este estudo se insere. Foram representados os processos de geração e propagação do escoamento superficial e de base. Durante o processo de calibração, realizou-se a análise de sensibilidade dos parâmetros, resultando como parâmetros mais sensíveis os relativos às áreas impermeáveis, especialmente o percentual de área impermeável da bacia (Ai). A calibração foi realizada através do ajuste manual de sete parâmetros do escoamento superficial e cinco do escoamento de base para três eventos. Foram obtidos coeficientes de determinação entre 0,52 e 0,64, e a diferença entre os volumes escoados e observados entre 0,60% e 4,96%. Para a validação do modelo foi adotado um evento pluviométrico excepcional observado na cidade em abril de 2010, que à época causou enchentes e grandes transtornos na cidade. Neste caso, o coeficiente de determinação foi igual a 0,78 e a diferença entre volumes foi de 15%. As principais distorções entre hidrogramas observados e simulados foram verificados para as vazões máximas. Em ambos os cenários as enchentes foram controladas. A partir destes estudos, pôde-se concluir que o melhor custo-benefício foi o cenário 2. Para este cenário, foi observado maiores amortecimento e retardo da vazão de pico do hidrograma, igual a 21,51% da vazão simulada para as condições atuais da bacia. Os custos de implantação orçados para os reservatórios de lote ficaram 52% a menos do que o do reservatório de detenção.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
Este trabalho foi feito com dados de campo da Bacia de Benguela, na costa sul de Angola. Nesta área aflora uma plataforma carbonática de idade albiana, análoga às formações produtoras de petróleo de mesma idade na Bacia de Campos. Duas unidades principais compõem a seção albiana na área: uma unidade inferior caracterizada por carbonatos de águas rasas com intercalações de conglomerados e arenitos na base, totalizando 300 m de espessura total, e uma unidade superior formada por sedimentos carbonáticos de águas mais profundas com espessura de 100 m. Esta seção se apresenta em dois domínios estruturais. O norte é caracterizado por uma plataforma de cerca de 5 km de largura, 35 km de comprimento na direção NE e que se encontra próxima ao embasamento. No domínio sul, essa plataforma se apresenta em fragmentos de menos de 10 km de comprimento por até 5 km de largura, alguns deles afastados do embasamento. Dado que há evaporitos sob essa plataforma, fez-se este trabalho com o objetivo de se avaliar a influência da tectônica salífera na estruturação das rochas albianas. A utilização de imagens de satélite de domínio público permitiu a extrapolação dos dados pontuais e a construção de perfis topográficos que possibilitaram a montagem das seções geológicas. Os dados de campo indicam que a estruturação na parte norte, onde há menos sal, é influenciada pelas estruturas locais do embasamento. Já na parte sul, onde a espessura de sal é maior, a deformação é descolada das estruturas do embasamento. Foi feita uma seção geológica em cada domínio e a restauração dessas duas seções mostrou que a unidade albiana na parte sul sofreu uma distensão de 1,25 (125%) e a de norte se distendeu em 1,05 (105%). Essa diferença foi causada por uma maior espessura original de sal na parte sul, que fez com que a cobertura albiana se distendesse mais em consequência da fluência do sal mergulho abaixo, em resposta ao basculamento da bacia em direção a offshore. A intensidade da deformação na parte sul foi tal que os blocos falhados perderam os contatos entre si, formando rafts. Este efeito foi reproduzido em modelos físicos, indicando que a variação na espessura original de sal tem grande influência na estruturação das rochas que o cobrem. As variações de espessura de sal são controladas por zonas de transferência do embasamento e estas mesmas estruturas controlam os limites dos blocos que sofrem soerguimento diferencial no Cenozoico.
Resumo:
No Brasil, entre as áreas protegidas e regulamentadas por lei estão às denominadas Unidades de Conservação (UC) e são definidas assim por possuírem características ambientais, estéticas, históricas ou culturais relevantes, importantes na manutenção dos ciclos naturais, demandando regimes especiais de preservação, conservação ou exploração racional dos seus recursos. O Parque Estadual da Serra da Tiririca (PESET), criado pela Lei 1.901, de 29 de novembro de 1991 localizado entre os municípios de Niterói e Maricá no Estado do Rio de Janeiro, enquadra-se na categoria de UC de Proteção Integral abrigando uma extensa faixa de Mata Atlântica em seus limites. Para a presente pesquisa foi feita uma classificação de Uso da terra e cobertura vegetal, refinada por pesquisas feitas através do trabalho de campo, que subsidiou a elaboração da proposta de Zoneamento Ambiental para o parque. O processamento digital da imagem foi feito utilizando-se o sistema SPRING desenvolvido pelo Instituto de Pesquisas Espaciais (INPE). A confecção dos mapas temáticos foi feita com apoio do sistema Arcgis desenvolvido pela ESRI. O Sistema de Informação Geográfica (SIG) foi empregado para as modelagens ambientais. Nessa etapa foram consideradas, de forma integrada, a variabilidade taxonômica, a expressão territorial e as alterações temporais verificáveis em uma base de dados georreferenciada. A tecnologia SIG integra operações convencionais de bases de dados, relativas ao armazenamento, manipulação, análise, consulta e apresentação de dados, com possibilidades de seleção e busca de informações e suporte à análise geoestatística, conjuntamente com a possibilidade de visualização de mapas sofisticados e de análise espacial proporcionada pelos mapas. A opção por esta tecnologia busca potencializar a eficiência operacional e permitir planejamento estratégico e administração de problemas, tanto minimizando os custos operacionais como acelerando processos decisórios. O estudo feito através da modelagem computacional do PESET apresentará o emprego das técnicas amplamente utilizadas no monitoramento ambiental, sendo úteis aos profissionais destinados à gestão e aos tomadores de decisão no âmbito das políticas públicas relacionadas à gestão ambiental de Unidades de Conservação.
Resumo:
Dados sedimentológicos e hidrodinâmicos foram utilizados para estudar a dinâmica sedimentar da margem interna da restinga da Marambaia (baía de Sepetiba, Rio de Janeiro, SE Brasil). Foram realizadas três campanhas amostrais para coleta de sedimentos ao longo da restinga da Marambaia e na área submersa adjacente. Adicionalmente, em dezembro de 2013, três fundeios simultâneos para aquisição de dados hidrodinâmicos foram conduzidos paralelamente à restinga, ao longo da profundidade média de 6,5 metros. As medições abrangeram dois ciclos de maré (25 horas), incluindo perfilagem com CTDs, perfilagem correntométrica e coleta de amostras de água para determinação das concentrações do material particulado em suspensão. A partir do processamento das amostras de sedimentos em laboratório, foram obtidos os parâmetros estatísticos (média, desvio-padrão e assimetria) para o detalhamento da caracterização sedimentológica da área de estudo, bem como a aplicação de um modelo de tendência direcional de transporte de sedimentos (GisedTrend). A restinga apresenta areias médias e bem selecionadas, enquanto as amostras coletadas na porção submersa, em profundidades maiores que 2 m, passam de areias finas e bem selecionadas a siltes finos e mal selecionados em maiores profundidades. Quatro casos de tendência de transporte foram explorados em um total de 14 possibilidades e os mais significativos foram analisados com o intuito de identificar áreas de acumulação e remoção de sedimentos, podendo estar associados aos processos responsáveis pelo transporte de sedimentos, tais como correntes geradas pelos ventos locais, marés e dispersão de plumas de sedimentos em suspensão. Os dados hidrodinâmicos, durante o período amostrado, permitiram observar o complexo padrão de circulação existente, especialmente na área adjacente à área central da restinga. Dentre as observações realizadas, verificou-se a ocorrência de assimetria da maré, fato já documentado em trabalhos anteriores conduzidos próximo ao principal canal de acesso à baia, com períodos de enchente mais curtos e períodos de vazante mais longos. Diferentemente do que foi reportado nestes trabalhos, os períodos de vazante foram associados às correntes de maior intensidade. As concentrações de material particulado em suspensão situaram-se, em média, entre 10 e 20 mg/L tanto em superfície como próximo ao fundo; no entanto, suas variações temporais não apresentaram qualquer relação com as fases da maré. Possíveis áreas de convergência e divergência da circulação / células de transporte de sedimentos foram identificadas e comparadas aos vetores de tendência de transporte obtidos através do modelo GisedTrend, com resultados satisfatórios.
Resumo:
Nos depósitos cenozóicos da Bacia de Taubaté são encontrados depósitos de folhelhos betuminosos (oleígenos) pertencentes à Formação Tremembé, de idade oligocênica, que durante alguns anos na década de 50 foram investigados com relação ao seu aproveitamento econômico através da extração industrial do óleo nele contido. Entretanto, em face de aspectos tecnológicos e conjunturais da época, esse aproveitamento industrial foi considerado inviável do ponto de vista econômico. Nesta dissertação é proposta uma aplicação da perfilagem geofísica para a caracterização da faciologia dos folhelhos betuminosos da Formação Tremembé, tendo como objetivo principal a identificação das eletrofácies nos perfis elétricos, através de uma metodologia robusta e consistente. A identificação de eletrofácies é importante para ajudar na determinação da caracterização de uma reserva não convencional e na análise da viabilidade econômica. Neste estudo foram utilizados os perfis convencionais de poço: Raio gama, resitividade, potencial espontâneo e sônico. Os dados de perfis de poços foram integrados com os testemunhos e dados geoquímicos, mais precisamente os dados de COT, S, IH, S2 para uma caracterização realística das eletrofácies. Os dados foram obtidos a partir de três sondagens rotativas realizadas na Bacia de Taubaté, resultantes de testemunhagem contínua e perfilagem a cabo ao longo do intervalo de folhelhos da Formação Tremembé. A partir disto, obtém-se como resposta um modelo específico para cada litologia, onde cada pico corresponde a uma eletrofácies, permitindo o estabelecimento de alguns padrões ou assinaturas geofísicas para as principais fácies ocorrentes. Como resultado deste trabalho, foi possível correlacionar as eletrofácies entre os poços numa seção modelo, a partir de similaridade lateral das eletrofácies entre os marcos estratigráficos representado, foi possível observar a continuidade de duas sequências de folhelhos betuminoso com alto teores de COT, S, IH, S2, considerados os mais importantes do ponto de vista econômico e gerado um modelo faciológico 2D e 3D dessas camadas. Os resultados obtidos neste trabalho são bastante promissores, apontando para a possibilidade de aplicação desta técnica a outros poços da Bacia de Taubaté, fornecendo subsídios relevantes à determinação da evolução sedimentar.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
Neste trabalho foi estudado o tratamento simultâneo por biofiltração de emissões de compostos orgânicos voláteis, COV e gás sulfídrico, H2S, em estações de tratamento de despejos industriais, de refinaria de petróleo, ETDI. A biofiltração dos gases emanados da EDTI mostrou ser uma técnica de alta eficiência, atingindo valores de 95 a 99 % para tratamento simultâneo de COV e H2S em concentrações de 1000 e 100 ppmv, respectivamente. Foram realizados testes em 95 dias consecutivos de operação, em uma planta piloto instalada na Superintendência da Industrialização do Xisto, SIX, em São Mateus do Sul, Paraná, de março a agosto de 2006. O biofiltro foi do tipo fluxo ascendente, com 3,77 m3 de leito orgânico, composto de turfa, carvão ativado, lascas de madeira, serragem brita fina além de outros componentes menores. Foi realizada inoculação biológica com lodo filtrado de estação de tratamento de esgoto sanitário. As vazões de gás aplicadas variaram de 85 a 407 m3/h, resultando em taxas de carga de massa de 11,86 a 193,03 g de COV/h.m3 de leito e tempos de residência de 24 segundos a 6,5 minutos, com tempo ótimo de 1,6 minutos. A capacidade máxima de remoção do sistema encontrada, nas condições testadas, foi de 15 g de COV/h. m3, compatível com os valores encontrados na literatura para depuração biológica de COV na escala praticada. Também foi verificada a redução de componentes específicos de BTX, demonstrando boa degradabilidade dos compostos orgânicos. Finalmente o biofiltro demonstrou boa robustez biológica diante dos desvios operacionais intencionalmente provocados, tais como falta de umidade do leito, baixa temperatura, alta vazão, falta de carga de COV e baixo pH do leito. Depois de retomada a condição de operação estável, a biofiltração rapidamente atingiu o estado de equilíbrio, assegurando o uso eficiente e confiável da técnica no tratamento de gases de EDTI na indústria do hidrocarbonetos ou em refinarias de petróleo.
Resumo:
Através do processamento de imagens digitais, mais especificamente as etapas de segmentação e classificação, foi possível analisar o processo de ocupação humana da bacia hidrográfica do rio Bonfim, localizada no município de Petrópolis, no estado do Rio de Janeiro. Este processo possibilitou a geração de mapas de uso da terra e cobertura vegetal e configurou-se numa importante etapa para avaliação ambiental capaz de auxiliar e dar fomento à execução de atividades de gestão e monitoramento do meio ambiente e de análise histórica dos remanescentes florestais ao longo dos últimos anos. Nesta pesquisa foram adotadas classes temáticas com o propósito de permitir a classificação das imagens digitais na escala 1/40.000. As classes adotadas foram: afloramento rochoso e vegetação rupestre; obras e edificações; áreas agrícolas e vegetação. Estudos foram feitos no sentido de indicar o melhor método de classificação. Primeiramente, efetuou-se a classificação no sistema SPRING, testando-se os melhores parâmetros de similaridade e área na detecção de fragmentos, somente da classe vegetação. Houve tentativa de classificar as demais classes de uso diretamente pelo sistema SPRING, mas esta classificação não foi viável por apresentar conflitos em relação às classes, desta forma, neste sistema foi feita somente a classificação e quantificação da classe vegetação. Visando dar continuidade a pesquisa, optou-se por executar uma interpretação visual, através do sistema ArcGis, para todas as classes de uso do solo, possibilitando o mapeamento da dinâmica de evolução humana, diante da floresta de mata atlântica na área de estudos e análise histórica de seus remanescentes entre os anos dos anos 1965, 1975, 1994 e 2006.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
Neste trabalho são apresentadas algumas características físicas, vantagens e viabilidade do uso do pó de tecido, proveniente do processamento de resíduos têxteis que são descartados em confecções em geral. A produção e utilização desse tipo de pó diminui o impacto ambiental e se mostra viável economicamente, pois é produzido facilmente a partir do processamento de resíduos, que seriam descartados na natureza. O presente trabalho mostra o estudo da produção do pó de tecido e a sua substituição parcial do agregado miúdo natural na produção de concretos de cimento Portland convencionais. Para comprovar a viabilidade técnica e econômica do uso do pó de tecido foram analisadas características do agregado como sua composição granulométrica, e seu comportamento nos ensaios de abatimento tronco de cone (Slump Test). Uma relação água-cimento também foi convencionada a um concreto usual com resistência esperada de 27MPa. Com estes dados foi definido um traço para o concreto utilizando 5% e 15% de agregado pó de tecido, substituindo a areia. A pesquisa apresenta os resultados de resistência à compressão simples dos corpos de prova cilíndricos de concreto aos 28 dias. Verificou-se que as amostras não apresentaram diferenças significativas de resistência entre si, tão pouco com relação às resistências de um concreto convencional produzido somente com agregado miúdo natural. Entretanto, houve uma melhora nos resultados dos ensaios à compressão, principalmente no concreto com 15% de pó de tecido.
Resumo:
A estatística é uma ciência com seus conceitos e métodos de coleta, organização e analise de informações que fazem parte dos currículos escolares da educação básica, na prática dos professores de matemática, para que os alunos compreendam, analisem e formem opinião crítica em relação às questões econômicas e sociais. A presente pesquisa buscou refletir sobre as práticas pedagógicas do professor de matemática no ensino de estatística no ensino médio, tendo como base as orientações para o ensino de estatísticas nas propostas dos Parâmetros Curriculares do Ensino Médio, as contribuições da aprendizagem significativa no ensino de estatística, com o uso das tecnologias na educação, através da proposta de planos de trabalho que abordem os conteúdos do ensino de estatística e a utilização do software livreCalc. Em relação aos caminhos metodológicos foi realizada uma pesquisa bibliográfica, utilizando o método de abordagem dedutivo, através de documentação indireta tendo como fonte de pesquisa os trabalhos científicos com foco no ensino e na aprendizagem da Estatística e da Probabilidade na Educação Básica. O desenvolvimento desta pesquisa possibilitou evidenciar caminhos metodológicos a serem desenvolvidos por professores de matemática na educação básica que contribuam na interpretação de dados do cotidiano a partir de análise de tabelas, análise de gráficos, medidas de posição, medidas de dispersão e linhas de tendência, utilizando como ferramentas as Tecnologias da Informação e Comunicação tendo como fundamentação teórica as contribuições de David Ausubel o conceito de aprendizagem significativa.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
Esforços constantes de pesquisa têm sido conduzidos na seleção de materiais, combinando propriedades de interesse (mecânicas, químicas, elétricas ou térmicas), versatilidade de uso, tempo de vida útil elevado e baixo custo de produção. A busca por materiais de elevado desempenho mecânico despertou grande interesse na pesquisa e desenvolvimento dos cerâmicos avançados com aplicações estruturais e funcionais, como o carbeto de silício. Entretanto, a porosidade ainda é vista como fator limitador do alto desempenho destes materiais visto que, acima de determinada porcentagem, reduz largamente sua resistência mecânica. Seu controle atualmente é realizado através de técnicas de alto custo, com a utilização de tomógrafos. Este trabalho buscou validar uma nova técnica, onde a porosidade foi avaliada através de processamento digital de imagens de microscopia ótica do material previamente lixado e polido em diversas profundidades, com controle dos parâmetros de lixamento e polimento. Esta nova metodologia mostrou-se apropriada e menos dispendiosa para a quantificação da porosidade do carbeto de silício, tendo sido validada para o estudo deste material.