384 resultados para Imgaens sintéticas
Resumo:
La tesis se centra en la Visión por Computador y, más concretamente, en la segmentación de imágenes, la cual es una de las etapas básicas en el análisis de imágenes y consiste en la división de la imagen en un conjunto de regiones visualmente distintas y uniformes considerando su intensidad, color o textura. Se propone una estrategia basada en el uso complementario de la información de región y de frontera durante el proceso de segmentación, integración que permite paliar algunos de los problemas básicos de la segmentación tradicional. La información de frontera permite inicialmente identificar el número de regiones presentes en la imagen y colocar en el interior de cada una de ellas una semilla, con el objetivo de modelar estadísticamente las características de las regiones y definir de esta forma la información de región. Esta información, conjuntamente con la información de frontera, es utilizada en la definición de una función de energía que expresa las propiedades requeridas a la segmentación deseada: uniformidad en el interior de las regiones y contraste con las regiones vecinas en los límites. Un conjunto de regiones activas inician entonces su crecimiento, compitiendo por los píxeles de la imagen, con el objetivo de optimizar la función de energía o, en otras palabras, encontrar la segmentación que mejor se adecua a los requerimientos exprsados en dicha función. Finalmente, todo esta proceso ha sido considerado en una estructura piramidal, lo que nos permite refinar progresivamente el resultado de la segmentación y mejorar su coste computacional. La estrategia ha sido extendida al problema de segmentación de texturas, lo que implica algunas consideraciones básicas como el modelaje de las regiones a partir de un conjunto de características de textura y la extracción de la información de frontera cuando la textura es presente en la imagen. Finalmente, se ha llevado a cabo la extensión a la segmentación de imágenes teniendo en cuenta las propiedades de color y textura. En este sentido, el uso conjunto de técnicas no-paramétricas de estimación de la función de densidad para la descripción del color, y de características textuales basadas en la matriz de co-ocurrencia, ha sido propuesto para modelar adecuadamente y de forma completa las regiones de la imagen. La propuesta ha sido evaluada de forma objetiva y comparada con distintas técnicas de integración utilizando imágenes sintéticas. Además, se han incluido experimentos con imágenes reales con resultados muy positivos.
Resumo:
Este trabalho visa analisar a possibilidade de tradução entre a língua portuguesa europeia e a brasileira. Tendo em vista que a tradução acontece quando as línguas nela envolvidas são consideradas diferentes, apresentamos uma breve análise das diferenças sintáticas da língua portuguesa europeia e brasileira no intuito de mostrarmos a relevância do trabalho tradutório envolvendo as duas. Considerando a intrínseca relação entre língua e cultura, mostramos brevemente a evolução da língua portuguesa a fim de apontar para as diferenças culturais e suas implicações no idioma. Como corpus, utilizamos o livro português Os cus de Judas (2003) com o qual exemplificamos as diferenças analisadas e para o qual, por fim, apresentamos uma proposta de tradução.
Resumo:
324 p.
Resumo:
Foram estudadas as características de floculação da hidro-xiapatita, calcita e quartzo com poliacrilamidas aniônicas. Tanto as suspensões de hidroxiapatita como a calcita foram completamente floculadas enquanto que o quartzo foi refratário a floculação com esses polimeros. Entretanto, observou-se que a floculação da calcita foi impedida com a utilização de um poliacrilato de sódio, enquanto que a hidroxiapatita continuou a ser floculada pela poliacrilamida num intervalo de concentração de O a 1000 g/ton de poliacrilato. Estes resultados permitiram estabelecer condições para a floculação seletiva de hidroxiapatita em misturas sintéticas com quartzo e calcita. Nestes sistemas foram estudados diversos parâmetros operacionais, tais como tipo de separação, efeito do teor da alimentação, e influência da moagem. Onde a separação estagiada apresentou melhor resultado, uma moagem adicional no sistema não favoreceu a seletividade. Por outro lado, o teor de P205 no concentrado é proporcional ao teor presente na alimentação. A hidroxiapatita, em estudo, de alta pureza (de acordo com técnicas de análise química, espectrofotometria de infravermelho e difração de raios X) apresentou um parto de carga zero em pH 6,77 na presença de diversos eletrólitos. A aplicação do sistema de floculação seletiva a fraçoes ultrafinas industriais foi estudada em detalhe e comparada com processos de flotação e floco-flatação. 0s resultados obtidos mostraram que a floculação seletiva somente foi eficiente nos sistemas sintéticos. A flotação, embora o minério apresente uma granulometria muito fina, foi mais eficiente que a floculação seletiva e a floco-flotação nos sistemas reais, em termos de taxa de enriquecimento e percentual de rejeição de massa. Entretanto com a floco-flotação foi possivel obter altas recuperações(-90%) para os minérios de Araxá e Itataia. Para o minério de Tapira, um aumento do teor de P2O5 foi obtido com a flotação da fração seletivamente floculada. As taxas de enriquecimento obtidas foram baixas (entre 1,35 e 2,101 em função das associações entre a apatita do minério com óxido de ferro e argila, o que revelou a caracterização mineralógica. Conclue-se que a concentração de minerios fosfatados de baixo teor é uma operação onerosa, onde o fator predominante é a absorção seletiva de reagentes e atransferência não específica de material de ganga nos respectivos concentrados.
Resumo:
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
Morfologia, transformação e co-presença em centros urbanos : o caso do centro do Rio de Janeiro / RJ
Resumo:
O presente trabalho é um estudo da evolução da configuração espacial do Centro da Cidade do Rio de Janeiro, feita a partir da metodologia da sintaxe espacial. O objetivo da pesquisa é analisar, ao longo de quatro séculos (XVII, XVIII, XIX e XX), as transformações morfológicas que ocorreram na estrutura urbana da área central de uma das cidades do Brasil que viveu mais intensamente as mudanças políticas e econômicas que ocorreram na formação nacional; e avaliar, no presente, em que medida as expectativas de co-presença, o movimento de pedestres e a dispersão de usos econômicos do solo, em 4 frações representativas do Centro (morro de Conceição, Lapa, Central do Brasil e centro de negócios) avaliadas empiricamente, estão correlacionadas com as medidas sintáticas obtidas a partir da descrição de seus padrões espaciais. O foco da descrição e das correlações, é discutir o processo de formação e consolidação da centralidade urbana, e a dinâmica de apropriação social do espaço, vinculada às expectativas das possibilidades e tipos de encontros entre as diferentes categorias sociais, que reconhecem ali, o centro simbólico e funcional de suas vidas social e espacial.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
O trabalho intitulado A instância da letra na leitura: o transbordamento da subjetivação psicótica no texto pretende investigar a singularidade de crianças em estruturação psicótica em relação à sua leitura. As questões trabalhadas nesta pesquisa partem de dois lugares: da clínica psicopedagógica numa equipe interdisciplinar e do contexto escolar no ensino público. A teorização freudo-lacaniana é tomada como fonte epistemológica e metodológica para desenvolver o trabalho. Partindo da questão qual é a singularidade da produção de sentido nos processos de leitura das crianças em estruturação psicótica, o objetivo deste trabalho é situar esta singularidade gerando reflexões em relação a aprendizagem, escolarização e inserção social de crianças psicóticas. Surgem duas hipóteses relacionadas à singularidade da leitura na estruturação psicótica. A primeira é de que a singularidade da posição do sujeito na linguagem pode revelar-se sob forma de alterações semânticas, sintáticas e pragmáticas na linguagem, a partir da leitura do texto. A segunda hipótese é de que há possibilidade de situar a incidência da letra na leitura em relação aos registros Real, Simbólico e Imaginário- RSI. Propõe-se três categorias de leitura possíveis em relação à incidência da letra no RSI: a leitura capturada no Real, a leitura capturada no Imaginário e a leitura capturada no Simbólico. Foram filmados, nos encontros de leitura com dois rapazes psicóticos, um do contexto escolar e o outro da clínica. Suas produções de leitura são analisadas, e nelas observa-se, como características de suas singularidades, fenômenos de linguagem com funcionamento predominante no registro Imaginário. A partir das constatações feitas foi realizada uma reflexão sobre as possibilidades e limitações na escolarização de crianças psicóticas, sustentando a importância de situar a singularidade de sua constituição subjetiva.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
Esta dissertação faz uma análise prévia da predicação complexa no modelo da Gramática Tradicional; aponta, em seguida, o enfoque das estruturas predicativas complexas à luz da Gramática Gerativa modelo de Princípios & Parâmetros (Chomsky, 1981, 1986). Ressalta que as estruturas sintáticas são projetadas a partir do léxico e correspondem a várias construções de predicação complexa. Mostra que os predicados complexos formados por APs e DPs predicativos apresentam características sintáticas e semânticas diferentes. Focaliza que essas construções superficialmente semelhantes são, em essência, diferentes, porque cada uma delas possui um processo próprio de estruturação interna, do qual decorre um sentido específico. Aponta, essencialmente, dois tipos de estruturas complexas: predicados secundários e miniorações complementos. Os predicados secundários se dividem, ainda, em predicados secundários orientados para o sujeito de [DP IP], predicados secundários orientados para o objeto de [DP VP] e predicados resultativos de [DP VP]. Os predicados secundários de [DP IP] e de [DP VP] e os predicados resultativos de [DP VP] constituem as Small Clauses adjuntas de predicados secundários. Apresenta que é possível encontrar evidências que as estruturas predicativas complexas do PB estão amalgamadas na concepção de Small Clauses nominais. Postula que as estruturas predicativas complexas do PB e as estruturas de Small Clauses nominais são em essência semelhantes. Tais estruturas possuem um mesmo processo de estruturação interna, que são analisadas conforme as configurações das representações sintáticas de cada sentença.
Resumo:
Analisa oportunidades de melhoria e propõe medidas para a otimização de uma cadeia específica de reciclagem de PET, voltada à transformação de embalagens PET descartadas em fibras sintéticas de poliéster, e posteriormente em nãotecidos. Identifica alguns conceitos relevantes para os canais de distribuição reversos. Ressalta a importância da busca de soluções para a problemática do lixo, destacando os canais reversos de reciclagem como parte fundamental de uma solução sustentável para o problema.
Resumo:
A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.
Resumo:
Esta tese tem o objetivo de mostrar que o sujeito aprendente, ao se deparar com um conceito matemático já construído por ele, pode, em outro contexto, atribuir-lhe novos sentidos e re-significá-lo. Para tanto, a investigação se apóia em duas teorias filosóficas: a filosofia de Immanuel Kant e a filosofia de Ludwig Wittgenstein. Também buscamos subsídios teóricos em autores contemporâneos da filosofia da matemática, tais como Gilles-Gaston Granger, Frank Pierobon, Maurice Caveing e Marco Panza. No decorrer do processo da aprendizagem, o conceito matemático está sempre em estado de devir, na perspectiva do aluno, mesmo que este conceito seja considerado imutável sob o ponto de vista da lógica e do rigor da Matemática. Ao conectar o conceito com outros conceitos, o sujeito passa a reinterpretá-lo e, a partir desta outra compreensão, ele o reconstrói. Ao atribuir sentidos em cada ato de interpretação, o conceito do objeto se modifica conforme o contexto. As estruturas sintáticas semelhantes, em que figura o objeto, e as aparências semânticas provenientes da polissemia da linguagem oferecem material para as analogias entre os conceitos. As conjeturas nascidas destas analogias têm origem nas representações do objeto percebido, nas quais estão de acordo com a memória e a imaginação do sujeito aprendente. A imaginação é a fonte de criação e sofre as interferências das ilusões provenientes do ato de ver, já que o campo de visão do aluno está atrelado ao contexto no qual se encontra o objeto. A memória, associada às experiências vividas com o objeto matemático e à imaginação, oferece condições para a re-significação do conceito. O conceito antes de ser interpretado pelo aluno obedece às exigências e à lógica da matemática, após a interpretação depende da própria lógica do aluno. A modificação do conceito surge no momento em que o sujeito, ao interpretar a regra matemática, estabelece novas regras forjadas durante o processo de sua aplicação. Na contingência, o aluno projeta sentidos aos objetos matemáticos (que têm um automovimento previsto), porém a sua imaginação inventiva é imprevisível. Nestas circunstâncias, o conceito passa a ser reconstruível a cada ato de interpretação. As condições de leitura e de compreensão do objeto definem a construção do conceito matemático, a qual está em constante mudança.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.