24 resultados para O uso da rede de sensores
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O desenvolvimento tecnológico do setor construção civil no Brasil não tem sido acompanhado de ações sistemáticas de formação/qualificação profissional de seus trabalhadores em níveis compatíveis com os novos padrões técnico/industriais. Aportes provenientes de várias áreas do conhecimento podem contribuir para a reversão dessa situação. De caráter interdisciplinar, envolvendo arquitetura, construção civil, educação e informática, este trabalho investiga como os recursos informáticos e telemáticos podem contribuir para a qualificação de trabalhadores da indústria da construção civil. Abordando um tema específico – leitura e interpretação de plantas arquitetônicas –, investiga as possibilidades que essas novas tecnologias podem oferecer para ações de qualificação de trabalhadores, bem como verifica as condições em que esses se apropriam dos recursos que serão predominantes nos processos de trabalho no milênio que se inicia. Adotando um referencial construtivista, foi projetado e aplicado um experimento, consistindo de um site na Internet e de um programa de desenho, em que os participantes não apenas tomam contato passivamente com diversos conteúdos relativos à sua atuação profissional, mas contribuem com seus conhecimentos tanto na definição dos temas e tópicos a serem abordados quanto na produção de conhecimentos relativos aos temas propostos, fazendoos participantes ativos e não meros leitores. Recursos como animações, imagens sobrepostas, textos, etc. são empregados para apresentar os princípios fundamentais da representação prévia do espaço construído As participações dos usuários são registradas por meio de formulários, cujos textos produzidos são disponibilizados posteriormente aos demais participantes. Os resultados obtidos dão conta da viabilidade de iniciativas dessa natureza em ações que façam uso da rede mundial de computadores para a qualificação de trabalhadores, contribuindo para a superação de desequilíbrios na distribuição dos recursos de formação.
Resumo:
Uma grande evolução aconteceu no mundo com o surgimento da Internet. Ela causou um espantoso aumento das comunicações, que passaram a ser em tempo real e com uma abrangência mundial. Foi a democratização da informação. A Internet serve como uma grande ferramenta para as empresas, principalmente com a globalização dos mercados, fenômeno que cresce cada dia mais e atinge a todos. A globalização fez com que as organizações se tornassem globais, e a Internet funciona como um elo de ligação entre empresas, fornecedores e consumidores. Este trabalho consistiu na realização de uma pesquisa survey exploratória com o objetivo de verificar e descrever o uso potencial da Internet como ferramenta de auxílio à realização de negócios de caráter global, nas micro, pequenas e médias empresas de Porto Alegre. A amostra das empresas pesquisadas foi extraída do Trade Point Porto Alegre, por ser essa uma entidade que tem por objetivo auxiliar as empresas a realizarem operações globais. Com relação ao mercado global, o trabalho identificou que quase todas as empresas acreditam que ele tenha oportunidades de negócios. Os principais meios para entrar nesse mercado são a participação em feiras e rodadas de negócios, contato pessoal e o Trade Point. A Internet já está disseminada no meio empresarial, todas as empresas já a conhecem, e boa parte das empresas realizam operações que podem ser auxiliadas pela rede, como comunicação, promoção de produtos e acompanhamento pós-venda. Identificou-se que as microempresas são as que menos acreditam no mercado internacional, mas apontaram que a Internet pode ajudá-las em suas atividades. Já as pequenas empresas são as que atuam no mercado internacional e acreditam que a Internet possa ajudá-las em algumas atividades. Por fim, as médias empresas, também atuam no mercado internacional, principalmente com as exportações, e são as que já estão utilizando a Internet. O Trade Point se mostrou um serviço bem requisitado pelas empresas, principalmente as que atuam com o comércio internacional. As principais vantagens citadas foram a centralização de informações e a geração de novos negócios.
Resumo:
Esta dissertação examina o relacionamento interfirmas e o emprego no âmbito da rede de empresas. Para tanto, selecionou-se o caso da rede de empresas liderada pela Companhia Riograndense de Telecomunicações (CRT). Foram investigadas onze empresas, situadas na Região Metropolitana de Porto Alegre e distribuídas em diferentes segmentos (instalação de centrais de comutação telefônica, cabeamento óptico e metálico e instalação de terminais telefônicos) e níveis (empresas “terceiras”, “quartas”, “quintas” e “sextas”) de prestação de serviços. Constata-se, na análise dos dados, primeiro, que a interação entre a estratégia competitiva da empresa contratante e os diferentes tipos de serviços prestados pelas empresas contratadas resulta em três tipos de relacionamento interempresas e, segundo, que as diferentes relações interfirmas e a posição das empresas nos níveis da rede implicam a existência de formas restritivas e virtuosas de uso e de gestão da força de trabalho e de condições de emprego precárias e não-precárias, ao longo da rede. A análise evidencia, pois, que a rede de empresas pode conjugar variados padrões de relacionamento interfirmas e de emprego, refutando abordagens homogeneizantes sobre as relações de trabalho - sejam as que argumentam que a externalização origina arranjos empresariais cooperativos e práticas não-precárias de emprego, sejam as que sustentam que a externalização origina arranjos de subordinação interempresas e práticas precárias de emprego, ao longo de toda a rede.
Resumo:
Esta pesquisa aconteceu a partir de uma lista de discussão, em rede telemática, entre professores da 4ª série do ensino fundamental de três escolas da região central do Estado do Rio Grande do Sul. Neste espaço de interação virtual, tínhamos como objetivo estudar como se instituíam as condições para emergência de novos sentidos, possibilitadores de uma dinâmica auto-organizativa do próprio espaço de interação, assim como seus extravasamentos para as práticas em situação pedagógica. Os referenciais teóricos, que deram sustentação a este estudo, encontram seus fundamentos na Epistemologia Genética de Jean Piaget e nas aproximações realizadas pelo próprio autor, com as teorias da complexidade, especialmente a teoria do caos e dos sistemas dinâmicos auto-organizativos. Na análise dos dados coletados no interior da lista, foi possível observar que o próprio espaço de interação telemática (definido pela lista de discussão) tornou-se operador das interações/reflexões dialógicas, entre professores (S x S) e entre suas práticas em situações pedagógicas (S x O). Os movimentos interativos/reflexivos, num misto de encontros/desencontros de idéias e sentidos, instituíram uma zona de interação telemática (zit). Por conseguinte, devido a multiplicidade de pontos de vista e de espaços-tempos visibilizados nesta zit, novos modos de pensar e de agir abriam-se para um campo virtual de possibilidades (Copntinuação) O que estava inicialmente fragmentado, solto, desorganizado, disperso, sem um sentido aparente e com operadores restringindo as aproximações integrativas (característico das condutas α), aos poucos foi conquistando coerência e estabilidade, integrando os desvios e as perturbações nestas novas construções e aproximando os professores de condutas β e γ. Enfim, a zit configurava suas fronteiras provisórias, apenas nas circularidades complexas, nos estados estacionários (aberturas e fechamentos coexistindo), que emergiam no devir das interações/reflexões partilhadas. Novas perspectivas tornaram-se possíveis e o professor podia, então, deslocar-se em relação a si, ao outro (colegas, autores...) e a própria prática, conquistando metapontos de vista. O que, de um determinado lugar, era restritor e limitava as interações/reflexões, de outro, tornava-se objeto tematizado para meta-reflexões. As oscilações acabaram por produzir novas estabilidades em meio às instabilidades, dessa forma instituindo a própria zit como um operador para os processos de emergência e produções de sentidos. Este estudo é, também, uma contribuição ao uso crítico/criativo das novas tecnologias na educação, enquanto possibilitadora de novos sentidos nas transformações político-pedagógicas.
Resumo:
O presente trabalho descreve uma pesquisa de caráter exploratório sobre o uso dos serviços oferecidos pela Internet para 151 empresas do Estado do Rio Grande do Sul, de nove diferentes áreas de atuação. Os resultados apresentados, em termos de percepção de importância e tempo de uso, colocam em evidência a grande importância dos serviços de correio eletrônico e WWW. São apresentadas sugestões para futuras pesquisas como, por exemplo, o monitoramento dos serviços do domínio .COM.BR.
Resumo:
Este estudo busca a compreensão de uma rede social através da Teoria dos Sistemas Vivos. Por sistema vivo entende-se aquele que, mantendo sua organização distinta por um observador (identidade sistêmica), realiza câmbios em sua estrutura (elementos constituintes) no processo de produção de si mesmo (autopoiese). Por serem abertos ao fluxo de matéria e energia, os sistemas autopoiéticos realizam seus câmbios estruturais a partir de interações com outros sistemas, ou acoplamentos estruturais. É feita uma breve contextualização teórica a respeito das descobertas da física contemporânea até a noção de redes autopoiéticas seu uso na psicologia social e institucional. Foi escolhida como objeto de estudo a Rede Integrada de Serviços do Bairro Restinga, em Porto Alegre, através da observação de suas reuniões (diários de campo) e transcrições de suas atas, bem como documentos enviados pela e para a Rede como sistema. São analisados três momentos de sua autopoiese: sua constituição como espaço aberto e múltiplo, seus movimentos com fins organizativos (auto-regulação) e um acoplamento com outro sistema. Por fim, discute-se a importância da pesquisa, pela sua integração entre a teoria dos sistemas vivos e a possibilidade de uma nova sociedade.
Resumo:
A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
O presente trabalho objetiva disponibilizar informações claras e ordenadas aos leitores em língua portuguesa acerca do vasto campo que é o monitoramento de espécies gasosas tóxicas ou perigosas em distintos ambientes. Também esclarece alguns termos técnicos comumente usados nesta área e tece comentários sobre a legislação e as normas brasileiras relativas ao assunto monitoramento de gases tóxicos ou perigosos, sempre buscando um paralelo com publicações técnicas de organizações internacionais de amplo conhecimento dos profissionais da área. Segue com uma elucidação dos princípios de funcionamento dos sensores de gases, componentes básicos das tecnologias mais extensivamente usadas, bem como as vantagens e desvantagens dos equipamentos deles decorrentes com vistas a permitir uma escolha acertada de tecnologias e equipamentos para uma resposta otimizada e eficiente envolvendo monitoramento de gases em situações rotineiras e especiais. Objetiva também prover uma exemplificação prática envolvendo o uso de equipamento de sensoriamento. Para tanto, finaliza com um exemplo de monitoramento de emissões poluentes, avalia comparativamente a performance de queima e tira conclusões acerca das emissões poluentes decorrentes da queima de gás liquefeito de petróleo (GLP) e gás natural (GN) comerciais em um forno.