3 resultados para Graph cut
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Neste trabalho apresenta-se uma abordagem sobre a conceção e execução de túneis que incide na metodologia de execução de galerias a céu aberto (mais conhecida pela designação utilizada na língua inglesa – cut and cover). Na primeira parte do trabalho é enquadrado o tema, introduzindo-se uma perspetiva sobre a sua evolução histórica, descrevem-se as principais metodologias adotadas na construção de túneis, afloram-se as vantagens e desvantagens de cada metodologia, abordam-se de forma sumária assuntos como a instrumentação utilizada no controlo da segurança na construção destas obras e empreendimentos envolventes assim como os benefícios obtidos com a construção deste tipo de obra. Numa segunda fase do trabalho abordam-se as principais práticas, critérios e normativas utilizadas no desenvolvimento de modelos estruturais que suportam as verificações de segurança na fase de projeto. Finalmente recorre-se a um estudo de caso para mostrar e discutir a aplicação prática de alguns dos critérios e normas antes referidos, bem como para verificar e discutir o estado de tensão de algumas das secções de referência da obra em análise, assim como correlacionar esse estado de tensão e de deformação com as diferentes soluções estruturais adotadas para a sua construção, nomeadamente a execução de cortinas de estacas ou taludes e banquetas na escavação.
Resumo:
The advances made in channel-capacity codes, such as turbo codes and low-density parity-check (LDPC) codes, have played a major role in the emerging distributed source coding paradigm. LDPC codes can be easily adapted to new source coding strategies due to their natural representation as bipartite graphs and the use of quasi-optimal decoding algorithms, such as belief propagation. This paper tackles a relevant scenario in distributedvideo coding: lossy source coding when multiple side information (SI) hypotheses are available at the decoder, each one correlated with the source according to different correlation noise channels. Thus, it is proposed to exploit multiple SI hypotheses through an efficient joint decoding technique withmultiple LDPC syndrome decoders that exchange information to obtain coding efficiency improvements. At the decoder side, the multiple SI hypotheses are created with motion compensated frame interpolation and fused together in a novel iterative LDPC based Slepian-Wolf decoding algorithm. With the creation of multiple SI hypotheses and the proposed decoding algorithm, bitrate savings up to 8.0% are obtained for similar decoded quality.
Resumo:
We provide all agent; the capability to infer the relations (assertions) entailed by the rules that, describe the formal semantics of art RDFS knowledge-base. The proposed inferencing process formulates each semantic restriction as a rule implemented within a, SPARQL query statement. The process expands the original RDF graph into a fuller graph that. explicitly captures the rule's described semantics. The approach is currently being explored in order to support descriptions that follow the generic Semantic Web Rule Language. An experiment, using the Fire-Brigade domain, a small-scale knowledge-base, is adopted to illustrate the agent modeling method and the inferencing process.