99 resultados para Cinematografia - Aplicações cientificas
Resumo:
Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.
Resumo:
O aço inoxidável hiperduplex possui alta resistência a corrosão por pite em ambientes contendo cloretos, quando comparado a outros aços inoxidáveis comercialmente conhecidos. Possui boas propriedades mecânicas, com limite de escoamento superior a 700MPa e limite de resistência a tração em torno de 1000MPa. Essas propriedades o tornam muito atrativos para aplicações em ambientes contendo cloretos, e por isso tem tido destaque na indústria de óleo e gás, refinarias, plataformas offshore, etc. A liga hiperduplex é composta por uma estrutura bifásica, contendo proporções aproximadamente iguais de ferrita e austenita. Esse material possui boa soldabilidade, mas por ser termodinamicamente metaestável, em altas temperaturas pode ocorrer a precipitação de fases intermetálicas não desejáveis, o que resulta em perda de propriedades mecânicas e diminuição da resistência a corrosão. A fase sigma tem sido fortemente estudada, pois é comum sua precipitação nos aços inoxidáveis da família duplex durante o procedimento de soldagem se este não for muito bem controlado. A fase sigma precipita preferencialmente na fase ferrítica, devido a maior concentração de Cr e Mo, que são os elementos formadores da fase. A resistência a corrosão é reduzida e as propriedades mecânicas do material são alteradas o tornando frágil devido a presença da fase sigma. É formada entre 600C e 1000C e possui uma estrutura tetragonal complexa. O objetivo do trabalho foi identificar a possível presença da fase sigma na junta soldada do aço inoxidável hiperduplex SAF 2707 HD (UNS S32707) pelo processo TIG autógeno manual através da difração de raios-x. Nessa pesquisa, foram analisadas uma junta soldada do material pelo processo TIG autógeno manual com arco pulsado. Complementando o estudo foram analisadas seis amostras do aço inoxidável superduplex, sendo que cinco amostras sofreram tratamento térmico para a proposital formação da fase sigma. O refinamento do resultado da difração das amostras foi feito utilizando o método de Rietveld no software Topas Academic versão 4.1. O resultado da amostra soldada de hiperduplex apresentou as fases austenita, ferrita e alguns prováveis óxidos. Os resultados das amostras de superduplex tratadas termicamente apresentaram a fase sigma, conforme esperado na pesquisa, e as fases austenita e ferrita.
Resumo:
A Quebra Espontânea de Simetria (QES) tem sido discutida em muitos cenários, tendo resultados importantes na física Teórica de Partículas, sendo motivo de extensa pesquisa e com variadas aplicações. Neste trabalho, será apresentado um modelo alternativo baseado na Ação de Fujikawa usando quartetos BRST. No primeiro capítulo, todo o ferramental para a análise da QES é discutido partindo da definição em nível clássico e por fim no regime quântico, usando o conceito de ação efetiva. A técnica de quantização de campos de calibre no U(1), presente no eletromagnetismo, foi abordada, usando o cálculo dos propagadores e seus respectivos diagramas de Feynman. Foi estudado em conjunto com esse assunto, o conceito de campos fantasmas de Fadeev-Popov e Simetria-BRST. O mecanismo de Higgs é explorado em nível quântico, sendo feita um estudo dos rearranjos dos graus de liberdade do sistema. No segundo capítulo, as propriedades dos quartetos-BRST são estudadas, bem como suas considerações sobre simetria, quando aplicadas na ação de Fujikawa usando dois cenários: (i) quando a simetria não é quebrada. (ii) A simetria é quebrada. E por fim é feita uma análise sobre os graus de liberdade do sistema.
Resumo:
Diversas formas de geração de energia vêm sendo desenvolvidas com o objetivo de oferecer alternativas ecologicamente corretas. Neste contexto, a energia eólica vem se destacando na região Nordeste do Brasil, devido ao grande potencial dos ventos da região. As torres, que representam parcela significativa do custo total do sistema, tendem a crescer buscando ventos mais fortes e permitindo assim a utilização de aerogeradores com maior capacidade de geração de energia. Este trabalho tem como objetivo formular um modelo de otimização de torres tubulares de aço, para aerogeradores eólicos. Busca-se minimizar o volume total (custo, indiretamente), tendo como variáveis de projeto as espessuras da parede da torre. São impostas restrições relativas à frequência natural e ao comportamento estrutural (tensão e deslocamento máximo de acordo com recomendações da norma Europeia). A estrutura da torre é modelada com base no Método dos Elementos Finitos e o carregamento atuante na estrutura inclui os pesos da torre, do conjunto de equipamentos instalados no topo (aerogerador), e o efeito estático da ação do vento sobre a torre. Para verificação das tensões, deslocamentos e frequências naturais, foram utilizados elementos finitos de casca disponíveis na biblioteca do programa de análise ANSYS. Os modelos de otimização foram também implementados no modulo de otimização do programa ANSYS (design optimization), que utiliza técnicas matemáticas em um processo iterativo computadorizado até que um projeto considerado ótimo seja alcançado. Nas aplicações foram usados os métodos de aproximação por subproblemas e o método de primeira ordem. Os resultados obtidos revelam que torres para aerogeradores merecem atenção especial, em relação à concepção do projeto estrutural, sendo que seu desempenho deve ser verificado através de metodologias completas que englobem além das análises clássicas (estáticas e dinâmicas), incluam também as análises de otimização.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
Em um contexto de demandas sociais tendencialmente crescentes, uma das alternativas para o aumento da arrecadação de receitas pelo Estado reside no manejo de aplicações financeiras. Os investimentos financeiros estatais, a rigor, já acontecem, mas nem sempre o objetivo claro e explícito de obtenção de resultados financeiramente interessantes e, eventualmente ou mesmo por isso , sob gestão economicamente ineficiente. Às vezes, até se enxerga o foco na obtenção de rendimentos relevantes na ação estatal, mas sem uma disciplina específica, o que pode abrir espaço a uma gestão de ativos desqualificada ou mesmo fraudulenta, com sérios prejuízos aos cofres públicos e, em situações extremas, ampliação ainda maior das despesas públicas. O objetivo desta tese, portanto, é reconhecer que nem sempre o Estado atua na economia com propósito interventivo e que, na qualidade de investidor institucional vale dizer, de ente que tem o dever de proceder aos investimentos e às aplicações financeiras que digam com as melhores práticas de administração dos ativos públicos , precisa atuar sob o jugo de normas jurídicas claras, que permitam ao Estado ampliar suas receitas dentro de limites razoáveis de exposição a risco financeiro e disponibilizem aos órgãos de fiscalização e controle da Administração Pública as ferramentas necessárias para, também quanto a esse aspecto, aferir a eficiência da ação estatal. Para tanto, têm-se como pressupostos o anacronismo da resistência cultural às aplicações financeiras dos entes da Administração Pública e a noção de que quaisquer ferramentas de obtenção de receitas pelo Estado estão sujeitas a algum grau de risco. Com base nas bem-sucedidas experiências nacionais e internacionais, será possível concluir, ao final, que é admissível, do ponto de vista constitucional e legal, a ação do Estado como investidor nos mercados financeiro e de capitais e que é viável a formulação de parâmetros gerais para a disciplina jurídica do Estado investidor.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
O clareamento dentário tem se tornado um dos procedimentos mais comuns na odontologia, mas esse dado causa preocupações, pois essa técnica apresenta efeitos adversos, como: sensibilidade dentária, alterações das propriedades mecânicas dos tecidos dentários, aumento da rugosidade do esmalte e alteração do conteúdo de cálcio e fósforo do dente, porém todos esses fatores ainda não são totalmente fundamentados da literatura odontológica, principalmente a relação da técnica com a desmineralização dentária. O objetivo do presente estudo foi avaliar o potencial de desmineralização de alguns géis clareadores de uso clínico para dentes vitais, após cinco aplicações em esmalte dental humano, usando a técnica de Fluorescência de Raios X. Foram obtidos 20 dentes anteriores humanos, tendo as suas raízes seccionadas e incluídos em resina epóxi, com auxílio de uma matriz especial. Para análise, os dentes foram divididos em quatro grupos (5 dentes por grupo). Grupo 1: clareamento pelo HP Maxx, peróxido de hidrogênio 35% manipulado e dosado manualmente; grupo 2: clareamento com HP Blue, peróxido de hidrogênio 35% com cálcio, pré-dosado e manipulado com seringa de automistura; grupo 3: clareamento com Ultraboost, peróxido de hidrogênio 38%, pré-dosado e manipulado com seringa de automistura e grupo 4: clareamento com Total Blanc 35, peróxido de hidrogênio 35%, pré-dosado e manipulado com seringa de automistura. Cada dente foi avaliado em 6 sítios antes do clareamento e ao final de cada sessão. Entre as sessões os elementos eram mantidos em água ultrapura. Os géis clareadores também tiveram seu pH analisado a cada 5 minutos durante 60 minutos. Estatisticamente, nenhum dos agentes clareadores alterou significantemente o conteúdo mineral do esmalte dental humano e também não houve diferenças estatísticas entre os grupos. Concluiu-se que, mesmo com as limitações do estudo, os clareadores testados não são capazes de desmineralizar o esmalte dental humano e não diferem estatisticamente entre si.
Resumo:
O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.
Resumo:
Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Dentro das síndromes de dor crônica, caracterizadas pela manifestação de sintomas somáticos na ausência de uma etiologia médica identificável, a fibromialgia constitui uma das categorias mais misteriosas, devido à presença de numerosos sintomas associados - tais como fadiga, perturbações do sono e alterações da memória e da concentração e pela elevada comorbidade com transtornos de ansiedade e de humor, especialmente com a depressão. Na atualidade, a fibromialgia atinge até 5% da população e afeta profundamente a qualidade de vida dos sujeitos diagnosticados, se instituindo como um importante problema de saúde pública, realidade que demanda o aumento dos estudos relativos à doença. Partindo da revisão bibliográfica das publicações cientificas sobre fibromialgia nos últimos anos (2010-2013), procurou-se alcançar uma melhor visão das abordagens contemporâneas sobre a doença em termos da sua compreensão, classificação e diagnóstico. Os resultados obtidos através desta revisão apontaram a existência de problemas inerentes à concepção da natureza ontológica e epistemológica da dor, cujas manifestações da ordem objetivo e subjetivo dor física/ dor psíquica - embaralham as categorias compreensivas que definem a visão moderna do ser humano nas suas diferentes dimensões existenciais, dificultando a construção de instrumentos de medida e de sistemas classificatórios que permitam uma abordagem mais sofisticada da fibromialgia.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Os elementos de terras raras, representados em sua maioria pelos lantanídeos, ocorrem principalmente como constituintes-traço da maioria dos minerais de rochas comuns (monazita, apatita) e também estão presentes em alguns minérios. Tais elementos foram largamente usados por décadas como fertilizantes na China. Na área das inovações tecnológicas, a demanda por esses metais vem crescendo por conta das suas aplicações em diversos campos. Consequentemente, grandes quantidades desses elementos são acumulados em ambientes aquáticos atingindo o fitoplâncton. Assim, as microalgas que são organismos ecologicamente importantes na cadeia alimentar têm sido frequentemente usadas em estudos ambientais para avaliar a toxicidade relativa de várias descargas químicas e são largamente estudadas na detecção dos primeiros impactos no ecossistema. Somado a isso, são biomassas que possuem boa capacidade de biossorção de metais devido à presença de ligantes na sua estrutura que promovem a captação deles quando em solução. Dessa forma, as interações entre as microalgas verdes Monoraphidium e Scenedesmus e os íons La3+ e Ce3+ foram investigadas neste trabalho. Para isso, foram avaliados o efeito tóxico e a bioacumulação do La3+ pelas duas microalgas verdes. Adicionalmente, estudos em batelada da biossorção do La3+ e Ce3+ em soluções contendo os elementos isoladamente ou em combinação foram realizados. No estudo de toxicidade e de bioacumulação o meio de cultivo utilizado foi o ASM-1, com e sem presença de La3+ (10 mg.L-1 a 100 mg.L-1), onde o efeito tóxico do metal foi monitorado por análises micro e macroscópica das células e também pela quantificação do crescimento celular baseada em medidas da massa seca. A bioacumulação do metal foi avaliada da mesma forma para ambas as microalgas. Os resultados obtidos mostraram que o efeito tóxico do metal foi presente em concentrações iônicas de 50 e 100 mg.L-1 e que houve uma bioconcentração do La3+ em ambas espécies de microalgas, principalmente quando a concentração inicial do La3+ foi de 10 e 25 mg.L-1, mostrando que houve uma relação direta entre a bioconcentração e a toxicidade do La3+. O gênero Monoraphidium bioconcentrou mais metal que o gênero Scenedesmus. Os resultados da biossorção dos metais em solução monoelementar mostraram que as microalgas apresentaram grande capacidade de captação do La3+ (20,7 mmol.g-1 para Monoraphidium sp. e 17,8 mmol.g-1 para Scenedesmus sp.) e do Ce3+ (25,7 mmol.g-1 para Monoraphidium sp. e 11,5 mmol.g-1 para Scenedesmus sp.). Os resultados obtidos revelaram que os dados melhor se ajustaram ao modelo de Freundlich, na maioria dos casos. Em sistema binário, notou-se que houve uma menor captação de cada um individualmente, evidenciando uma competição entre eles pelos mesmos sítios ligantes e que ambas apresentaram maior afinidade pelo Ce3+
Resumo:
Esta dissertação tem como objetivo principal apresentar aos professores a matemática que é utilizada em diversas atividades da indústria do petróleo para serem apresentadas em sala de aula como aplicações práticas de diversos conceitos que são ministrados desde o ensino fundamental até o superior. Assim, possui o intuito de desenvolver no aluno a percepção da importância de se aprender matemática, criando um estímulo a mais em seus estudos. O trabalho se refere especificamente ao Terminal Aquaviário da Baía de Guanabara (TABG), pertencente à empresa de petróleo Petrobras Transporte S/A (TRANSPETRO), no qual labora o autor. São apresentados os diversos cálculos utilizados nas variadas atividades do dia a dia do TABG. Por fim, são sugeridas algumas atividades que podem ser aplicadas em sala de aula