50 resultados para Fontes de dados
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
No início da década de 90, as empresas começaram a sentir a necessidade de melhorar o acesso à informação das suas actividades para auxiliar na tomada de decisões. Desta forma, no mundo da informática, emergiu o sector Business Intelligence (BI) composto inicialmente por data warehousing e ferramentas de geração de relatórios. Ao longo dos anos o conceito de BI evoluiu de acordo com as necessidades empresariais, tornando a análise das actividades e do desempenho das organizações em aspectos críticos na gestão das mesmas. A área de BI abrange diversos sectores, sendo o de geração de relatórios e o de análise de dados aqueles que melhor preenchem os requisitos pretendidos no controlo de acesso à informação do negócio e respectivos processos. Actualmente o tempo e a informação são vantagens competitivas e por esse mesmo motivo as empresas estão cada vez mais preocupadas com o facto de o aumento do volume de informação estar a tornar-se insustentável na medida que o tempo necessário para processar a informação é cada vez maior. Por esta razão muitas empresas de software, tais como Microsoft, IBM e Oracle estão numa luta por um lugar neste mercado de BI em expansão. Para que as empresas possam ser competitivas, a sua capacidade de previsão e resposta às necessidades de mercado em tempo real é requisito principal, em detrimento da existência apenas de uma reacção a uma necessidade que peca por tardia. Os produtos de BI têm fama de trabalharem apenas com dados históricos armazenados, o que faz com que as empresas não se possam basear nessas soluções quando o requisito de alguns negócios é de tempo quase real. A latência introduzida por um data warehouse é demasiada para que o desempenho seja aceitável. Desta forma, surge a tecnologia Business Activity Monitoring (BAM) que fornece análise de dados e alertas em tempo quase real sobre os processos do negócio, utilizando fontes de dados como Web Services, filas de mensagens, etc. O conceito de BAM surgiu em Julho de 2001 pela organização Gartner, sendo uma extensão orientada a eventos da área de BI. O BAM define-se pelo acesso em tempo real aos indicadores de desempenho de negócios com o intuito de aumentar a velocidade e eficácia dos processos de negócio. As soluções BAM estão a tornar-se cada vez mais comuns e sofisticadas.
Resumo:
Em muitos casos o desenvolvimento de soluções recorrendo a data warehouses é pensado para funcionar de forma autónoma e não numa perspectiva cooperativa. Este facto leva a que existam alguns problemas quando é necessário integrar diferentes data marts de forma a construir uma solução integrada que possa facilitar o acesso á informação. A solução proposta passa pelo desenvolvimento de um servidor de baixo acoplamento que permite integrar diferentes datas marts heterogéneos, utilizando o protocolo padrão XMLA. O mesmo não possui qualquer informação presente nos múltiplos data marts a integrar. Este servidor apenas possui meta-informação que permite saber quais são as dimensões concordantes entre os diferentes data marts, possibilitando assim a realização de operações de drill-across entre as diversas fontes de dados. Com esta solução é possível a existência um elevado grau de descomprometimento entre o servidor de integração e os repositórios de informação, sendo apenas necessário que o servidor saiba de que forma os dados estão relacionados. Este servidor é constituído por diferentes módulos. De entre eles realça-se o módulo que permite gerar múltiplas interrogações, para cada um dos data marts, a partir de uma única interrogação. O mesmo módulo permite posteriormente juntar o resultado das interrogações a todos os data marts numa única resposta. Para realizar a prova da viabilidade da solução, foram desenvolvidos dois data marts que possuem dimensões concordantes. Cada um deles foi colocado em servidores de diferentes fornecedores. Ao ser colocado cada um dos data marts em dois servidores de fornecedores diferentes, é possível demonstrar também que a solução funciona com diferentes servidores. Para tornar possível a interrogação do servidor de integração, foi desenvolvida uma aplicação cliente que permite que o utilizador possa, ao ir adicionando e removendo dimensões, saber quais os dados que são ou não compatíveis.
Resumo:
Este trabalho sugere uma solução de integração de dados em tempo real no contexto dos transportes públicos. Com o aumento das alternativas oferecidas aos utilizadores dos transportes públicos é importante que estes conheçam todas as alternativas com base em informação em tempo real para que realizem a escolha que melhor se enquadre às suas necessidades. Por outro lado, os operadores de transportes públicos deverão ser capazes de disponibilizar toda a informação pretendida com o mínimo de esforço ou de alterações ao sistema que têm implementado. Neste trabalho serão utilizadas ferramentas que permitem fornecer uma visão homogénea das várias fontes de dados heterogéneas, sendo essa homogeneidade o ponto de integração de todas as fontes de dados com as aplicações cliente.
Resumo:
Trabalho de Projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.
Resumo:
A separação de dados hiperespectrais pretende determinar quais as substâncias presentes numa imagem e quais as suas concentrações em cada pixel. Esta comunicação apresenta um método não-supervisionado, denominado de Análise de Componentes Dependentes (DECA), que efectua a separação destes dados automaticamente. Este método assume que cada pixel é uma mistura linear das assinaturas (reflectâncias ou radiâncias) das substâncias presentes pesadas pelas respectivas concentrações (abundâncias). Estas abundâncias são modeladas por misturas de distribuições de Dirichlet, que por si garantem as restrições de não-negatividade e soma unitária impostas pelo processo de aquisição. A matriz de assinaturas é estimada por um algoritmo Esperança-Maximização generalizado (GEM). O método DECA tem um desempenho melhor que os métodos baseados em análise de componentes independentes e que os métodos baseados na geometria dos dados. Nesta comunicação apresentam-se resultados desta metodologia, com dados simulados (baseados em reflectâncias espectrais da base de dados do laboratório USGS) e com dados hiperespectrais reais adquiridos pelo sensor AVIRIS, ilustrando a potencialidade da técnica.
Resumo:
A integração de informação geográfica disponível em diferentes formatos levanta a necessidade de criar mecanismos de resolução de incompatibilidades, tendo em vista facilitar a partilha e reutilização de informação. No âmbito desta dissertação, propõe-se uma arquitectura que efectue a integração de informação geográfica. A arquitectura processa diferentes fontes de informação geográfica com diferentes formatos. A informação geográfica apresentada nas entradas é transformada atendendo a um formato de representação interno e, após ser realizada a sua integração, é disponibilizada em múltiplos formatos de saída. A arquitectura proposta é modular e inclui o módulo de leitura das entradas, o módulo que associa as fontes de informação aos respectivos formatos, o módulo de conversão dos dados de entrada no formato de representação interno e o módulo de integração que gera os dados nos diferentes formatos de saída. Com o objectivo de avaliar experimentalmente a arquitectura, foi desenvolvido um protótipo. Foram processados exemplos de informação geográfica relativos a cenários de integração que cobrem as funcionalidades da arquitectura, nomeadamente a inclusão de novos formatos de informação geográfica e a integração de fontes de informação homogéneas ou heterogéneas. Os resultados obtidos confirmam que a arquitectura proposta é adequada à integração de fontes de informação geográfica e que é uma contribuição válida para a resolução de problemas de interoperabilidade em sistemas de informação geográfica.
Resumo:
A crescente procura e o carácter finito dos recursos energéticos fósseis e as consequências nocivas de natureza ambiental provocadas pela emissão de gases de efeito de estufa para atmosfera, resultantes da sua combustão, obriga a reequacionar a utilização da energia, com uma maior racionalização nos consumos e diversificando as suas fontes e formas, com particular importância para as energias renováveis, onde as pellets, como forma densificada de biomassa, se inserem. O presente trabalho visa avaliar o potencial de incorporação de resíduos agrícolas como matéria-prima na produção de pellets a utilizar como combustível em caldeiras domésticas, sendo, para isso, contabilizados os resíduos agrícolas existentes em Portugal Continental adequados para aquele efeito, e, também, avaliada, pela via experimental, a viabilidade técnica do uso destas pellets em caldeiras domésticas, com testes de combustão de alguns tipos de pellets de origem agrícola e florestal. Os quantitativos apurados de resíduos agrícolas, basearam-se fundamentalmente em dados relativos às áreas de cultura e às produções agrícolas de 2008 do Instituto Nacional de Estatística e em relações área/massa de resíduos ou produto agrícola/massa de resíduos, de vários autores credenciados. O potencial total anual destes resíduos ronda os 2,8 milhões de toneladas, correspondendo 43,5% às culturas permanentes, 6,6% às culturas temporárias, 8,4% à actividade agro-industrial e 41,5% aos matos, representando cerca de 1,2 milhões de toneladas equivalentes de petróleo, para um poder calorífico médio da ordem dos 17600 kJ/kg. Nos testes laboratoriais foram usadas pellets de pinho, adquiridas no mercado e de vides, de giestas e de bagaço de azeitona todos a 100% e de mistura de bagaço de azeitona e de pinho, ambos a 50%, que foram produzidas numa pelletizadora doméstica em virtude das fábricas existentes em Portugal não produzirem pellets que incorporem resíduos agrícolas. A densificação deste tipo de resíduos mostrou-se fácil de realizar, apenas exige um controlo apertado da humidade dos resíduos, após a sua trituração, para que se assegure uma boa consistência e o máximo potencial calorífico. Relativamente à combustão das pellets testadas verificou-se que esta se processou normalmente, sem interrupções e de forma muito semelhante às pellets de pinho, que serviram de referência. As pellets de vides e as de mistura aparentaram um menor poder calorífico, dado terem um maior teor de humidade originado nas operações de pelletização, notando-se que a caldeira demorava mais tempo até a bomba de recirculação arrancar (54 ºC). A ignição, com a caldeira fria, processou-se de forma fácil, mesmo com estas últimas pellets, embora naturalmente tenha demorado um pouco mais de tempo. O teor de cinzas destas pellets era superior às de pinho, mais do dobro, porém, sem qualquer influência no funcionamento da caldeira.
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
Este trabalho pretende analisar o estado da arte da tecnologia das energias renováveis em Portugal e das suas perspectivas de evolução. Analisa os progressos que têm feito nessa área e o interesse que o País tem em evoluir na sua sustentabilidade e, no desenvolvimento duma estratégia forte para o futuro nessa área. Com esta investigação, pretende-se, explicar os conceitos de sustentabilidade e eficiência energética em relação aos edifícios e como fazer a sua classificação, além do caminho para lá chegar. Também são referidas as diferentes tecnologias existentes no mercado, como a solar, eólica, biomassa, geotérmica e hídrica, e as que poderão surgir no futuro, os estudos feitos para avaliação do potencial de redução de custos de cada uma, da diminuição dos impactes ambientais, da maior sustentabilidade dos edifícios, bem como das vantagens destes em relação às fontes de energia já existentes. È também analisado o papel que poderão desempenhar estas energias de fonte renovável na redução da dependência energética de um edifício em relação às energias de origem fóssil. O ponto de situação actual da indústria e o seu futuro a nível mundial é estudado. Ao nível internacional são examinados os estudos feitos para desenvolver a tecnologia. No plano nacional foi feito uma recolha de dados que permitirá fazer uma compilação da situação energética actual, da estratégia para o sector no futuro, do enquadramento legal actual, bem como das barreiras que limitam o seu desenvolvimento. A consideração de todos estes elementos, vai mostrar que as energias renováveis, só deverão ter um papel importante no fornecimento de energia global com o investimento de privados e com ajudas do governo. Em Portugal, já representa uma fatia importante no consumo energético. Estes dois factos permitem inferir que hoje um investimento é uma oportunidade no mundo da Engenharia Civil, e que apesar de o sector nacional estar no bom caminho, o mesmo está ainda aquém do necessário e longe do seu potencial máximo.
Resumo:
Do ponto de vista das preocupações de saúde, os níveis de contaminação do ar interior assumem actualmente uma elevada importância quando se tem em consideração que as pessoas passam a maior parte do seu tempo no interior de edifícios. Neste contexto, o formaldeído é um dos poluentes mais preocupantes e, inclusivamente, os resultados de concentração obtidos em habitações do espaço Europeu foram considerados preocupantes devido ao facto de estarem relacionados com efeitos negativos para a saúde. O estudo exploratório desenvolvido pretendeu disponibilizar informação acerca das concentrações de formaldeído existentes em habitações domésticas portuguesas. Estudou‑se a presença de formaldeído em habitações novas e habitações domésticas com ocupação, abrangendo 6 unidades de cada um dos tipos considerados. Para a avaliação ambiental foi utilizado um equipamento de leitura direta que deteta as concentrações de formaldeído por fotoionização com uma lâmpada de 11,7 eV. A temperatura ambiente e a humidade relativa foram igualmente medidas, de acordo com o estipulado na Norma Internacional ISO 7726:1998. No caso das habitações novas foram registados valores de concentração superiores a 0,08 ppm em 3 das unidades estudadas. Por outro lado, em 4 das habitações com ocupação foram obtidos valores superiores a 0,08 ppm. O desenvolvimento deste estudo permitiu reconhecer algumas das possíveis fontes emissoras e os factores que influenciam as concentrações de formaldeído nas habitações em Portugal. ABSTRACT - Nowadays, indoor air contamination is considering an important health issue considering that people spend most of their time indoors. In this context, formaldehyde is a pollutant of major concern and, recently, concentration results obtained in European dwellings reveal high concentrations and values related with negative health effects in occupants. The present exploratory study sought to provide information about formaldehyde concentrations in Portuguese dwellings. It was studied formaldehyde presence in new dwellings and dwellings with occupation and included 6 units of each setting. For concentrations measure, it was used a direct‑reading equipment that detects formaldehyde concentration by photoionization. Temperature and relative humidity were also measured in accordance with International Standard ISO 7726:1998. In the case of new dwellings, in 3 units concentration values were higher than 0.08 ppm. In addition, in 4 units of the 6 dwellings with occupation, concentrations higher than this reference value were obtained. The development of this study permitted to recognize some of the possible indoors emissions sources and to define several of the preventive measures that can be applied.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.
Resumo:
Perda auditiva: elevada prevalência da perda auditiva (14,1%), efeitos na comunicação, efeitos em aspectos psicossociais, cognitivos, da fala e linguagem. Avaliação da perda auditiva: baseia-se nos testes audiométricos psicoacústicos, base audiometria tonal, que permite estimar a sensibilidade auditiva (normal vs anormal), permite classificar o tipo e grau de perda auditiva, avaliação qualitativa com a utilização de escalas desenvolvidas para esse efeito, HHIA (Hearing Handicap Inventory for Adults), instrumento desenvolvido a partir do HHIE (Hearing Handicap Inventory for the Elderly), para ser usado com pacientes de idade inferior a 65 anos.
Resumo:
Este estudo tem como principal objectivo compreender de que modo os alunos de 1.º ano de escolaridade desenvolvem estratégias de cálculo mental, num contexto de resolução de problemas de adição e subtracção. Para tal, procurou responder-se a três questões: a) Que estratégias de cálculo mental são utilizadas pelos alunos na resolução de problemas de adição e subtracção?; b) De que modo evoluem essas estratégias?; e c) Será que o significado da operação de adição ou subtracção, presente no problema, influencia a estratégia de cálculo mental utilizada na sua resolução? Tendo em conta a problemática do estudo, seguiu-se uma metodologia de natureza qualitativa, tendo sido realizados três estudos de caso. O trabalho de campo deste estudo foi realizado numa turma do 1.º ano do 1.º ciclo do ensino básico, da qual sou professora, tendo sido concluído no início do ano lectivo seguinte, quando os alunos frequentavam o 2.º ano de escolaridade. Os alunos em estudo resolveram três cadeias de problemas, contemplando os diferentes significados das operações de adição e subtracção: as primeiras duas cadeias foram resolvidas a pares, na sala de aula, e a última foi resolvida individualmente, apenas pelos alunos que constituíram os casos e fora da sala de aula. Os registos realizados pelos alunos aquando da resolução dos problemas, juntamente com as gravações áudio, vídeo e as notas de campo, constituíram-se como as principais fontes de recolha de dados. Os dados permitem afirmar que as estratégias de cálculo usadas pelos alunos evoluíram de estratégias elementares baseadas em contagem e na utilização de factos numéricos, para estratégias de cálculo mental complexas, aditivas ou subtractivas das categorias 1010 e N10. Foi possível identificar uma preferência por estratégias aditivas do tipo 1010 na resolução dos problemas de adição e, na resolução dos problemas de subtracção, as estratégias utilizadas pelos alunos variaram com o significado presente em cada problema: foram usadas estratégias subtractivas do tipo 1010 em problemas com o significado de retirar e, na resolução dos problemas com os significados de comparar e completar, de um modo geral, os alunos utilizaram estratégias aditivas do tipo A10, pertencente à categoria N10. Os dados apontam também para uma possível influência do ambiente de aprendizagem na utilização de estratégias de cálculo mental mais eficientes, particularmente a nível da estratégia aditiva do tipo 1010. Os dados permitem ainda concluir que alunos do 1.º ano são capazes de desenvolver e utilizar estratégias de cálculo mental, referidas na literatura a que tive acesso (por exemplo, Beishuizen, 1993; 2001; Buys, 2001; Cooper, Heirdsfield & Irons, 1995; Thompson & Smith, 1999), associadas a alunos mais velhos. Deste modo, os resultados deste estudo salientam a necessidade de, em ambientes de aprendizagem enriquecedores, o professor promover o desenvolvimento de estratégias complexas de cálculo mental, evoluindo para além das estratégias de cálculo elementares, habitualmente associadas aos alunos mais novos.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.