57 resultados para Método de adição padrão
Resumo:
A capacidade de distinguir os problemas relacionados com a afectação de custos dos relacionados com os preços de transferência é um factor fundamental para se entender a complexidade da valorização dos fluxos de trabalho entre divisões numa unidade de produção. O tema dos preços de transferência pode ser encarado como uma parte do problema da afectação de custos. Em certas circunstâncias, as semelhanças associadas à interdependência do tratamento contabilístico são claramente identificáveis. No entanto, o grau de descentralização das divisões permite distinguir as duas situações. Os preços de transferência existem porque existe um mercado interno para transaccionar bens e serviços entre segmentos de uma mesma organização, isto é, quando as empresas e os grupos de empresas realizam movimentos internos entre departamentos e/ou entre filiais é muito importante a existência de um sistema de preços para que as transferências sejam valorizadas. No entanto, os preços de transferência têm sido tradicionalmente mais abordados como um problema de custos/proveitos ou como um problema da contabilidade de gestão sem existir (na abordagem tradicional) um tratamento autónomo desta importante ferramenta da gestão. Os preços de transferência desempenham um papel fundamental nos sistemas de controlo, uma vez que a sua utilização permite motivar os gestores dos centros de responsabilidade e avaliar o desempenho quer do centro prestador (fornecedor), quer do centro utilizador (cliente), quer ainda dos seus responsáveis. Para se entender as determinantes dos preços de transferência é necessário analisar as diversas abordagens teóricas: a matemática, a economia, as teorias do comportamento, as teorias da organização e da estratégia e outras. Cada uma destas teorias acrescenta conhecimento sobre o papel, a natureza e a evolução dos sistemas de preços de transferência e, uma vez que os pressupostos subjacentes são numerosos, contribuem para tornar claro qual o método de escolha. A abordagem do tema dos preços de transferência estaria incompleta se não fossem destacados os seus objectivos e os métodos utilizados para a sua fixação. Estes métodos podem basear-se em custos (reais ou padrão) ou no preço de mercado, havendo vantagens e inconvenientes quando se adoptam uns ou outros. Porém, quando se fixam preços de transferência podem surgir conflitos. No entanto, existem meios de evitar esses conflitos através da negociação entre as partes para que se estabeleça um acordo relativamente ao preço a praticar nas transferências. Se não se conseguirem evitar tais conflitos existem métodos, nomeadamente a arbitragem, que poderão ser utilizados para os resolver.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
Os sistemas de perceção visual são das principais fontes de informação sensorial utilizadas pelos robôs autónomos, para localização e navegação em diferentes meios de operação. O objetivo passa por obter uma grande quantidade de informação sobre o ambiente que a câmara está a visualizar, processar e extrair informação que permita realizar as tarefas de uma forma e ciente. Uma informação em particular que os sistemas de visão podem fornecer, e a informação tridimensional acerca do meio envolvente. Esta informação pode ser adquirida recorrendo a sistemas de visão monoculares ou com múltiplas câmaras. Nestes sistemas a informação tridimensional pode ser obtida recorrendo a técnica de triangulação, tirando partido do conhecimento da posição relativa entre as câmaras. No entanto, para calcular as coordenadas de um ponto tridimensional no referencial da câmara e necessário existir correspondência entre pontos comuns às imagens adquiridas pelo sistema. No caso de más correspondências a informação 3D e obtida de forma incorreta. O problema associado à correspondência de pontos pode ser agravado no caso das câmaras do sistema terem características intrínsecas diferentes nomeadamente: resolução, abertura da lente, distorção. Outros fatores como as orientações e posições das câmaras também podem condicionar a correspondência de pontos. Este trabalho incide sobre problemática de correspondência de pontos existente no processo de cálculo da informação tridimensional. A presente dissertação visa o desenvolvimento de uma abordagem de correspondência de pontos para sistemas de visão no qual é conhecida a posição relativa entre câmaras.
Resumo:
Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.
Resumo:
A agricultura é uma das atividades mais antigas realizadas pelo Homem, sendo de grande importância para a obtenção tanto de bens alimentares como de bens para outros fins. No entanto desde o início constatou-se que as culturas eram afetadas por pragas e doenças que levavam à perda das colheitas. Este motivo deu origem à necessidade de nesses termos surgiu a aplicação de substâncias com o objetivo de proteger as colheitas. Os pesticidas são substâncias naturais ou sintéticas, aplicadas com o objetivo de proteger as plantas eliminando pragas e doenças. Para além da potencial toxicidade destas substâncias, em alguns casos a sua degradação no meio ambiente por microrganismos, hidrólise, radiação solar, etc. dá origem a produtos de degradação tanto ou mais tóxicos que os próprios pesticidas. A utilização deste tipo de substâncias acarreta problemas, visto a sua aplicação ser feita de forma a compensar perdas que ocorrem por meio de degradação, lixiviação, entre outros processos. Este tipo de aplicação leva a que haja contaminação do meio ambiente por parte dos pesticidas, pondo em risco tanto a saúde humana como os restantes seres vivos. A utilização de ciclodextrinas no encapsulamento destes compostos tem como objetivo aumentar a estabilidade do composto e promover a sua libertação de forma controlada. No presente trabalho pretende-se efetuar um estudo comparativo sobre a fotodegradação do herbicida terbutilazina e do fungicida pirimetanil livres e quando encapsulados com 2- hidroxipropil-β- ciclodextrina. De forma a quantificar os pesticidas ao longo do estudo foi utilizado o método analítico de HPLC de fase reversa. Os resultados permitiram constatar que a terbutilazina é fotoquimicamente estável, nas condições aplicadas, visto que ao fim de 75 dias de as soluções de pesticida livre em água desionizada e em água do rio apresentarem ainda 98% do pesticida inicial e as soluções de pesticida encapsulado em água desionizada e em água do rio apresentarem ainda 98% do pesticida inicial. Neste caso particular não foi possível, no intervalo de tempo considerado, avaliar a influência do encapsulamento no processo de fotodegradação da terbutilazina. Dada a baixa fotodegradação observada optou-se pela adição de peróxido de hidrogénio às soluções de controlo e 35 mM de HP-β-CD e acetona às soluções de 0 mM e 17,5 mM de HP-β-CD, para tentar promover a degradação do pesticida. Através dos resultados obtidos constatou-se que particularmente para as soluções onde foi adicionada acetona houve um aumento da velocidade de degradação no entanto esta ainda ocorria de forma lenta e muito semelhante quer para o pesticida livre quer para o encapsulado. Relativamente ao estudo da fotodegradação do pirimetanil verificou-se que ao fim de 4 dias de irradiação as soluções de pesticida livre apresentavam já alguma degradação do pesticida e tendo o período de irradiação uma duração de 53 dias foi possível para este pesticida determinar os parâmetros cinéticos em algumas das soluções. Quanto as soluções de água desionizada e água do rio com pirimetanil livre ambas apresentaram degradação do pesticida verificando-se uma cinética de reação de 1ª ordem com constantes de 0,0018 dias-1 e de 0,0060 dias-1 respetivamente. Para a solução de água desionizada com pirimetanil encapsulado não foi detetada degradação do pesticida, já para a solução com pirimetanil encapsulado em água do rio verificou-se a existência de degradação que correspondeu a uma cinética de degradação de 1ª ordem com uma constante de 0,0013 dias-1. Através dos resultados obtidos pode-se concluir que o encapsulamento do pirimetanil com 2-hidroxipropil-β-ciclodextrina é vantajoso visto diminuir a quantidade de pesticida utilizado e aumentar a eficácia do controlo das pragas.
Resumo:
A fabricação de moldes é uma actividade que se desenvolve em Portugal há várias décadas, com qualidade reconhecida mundialmente. A indústria automóvel é um dos principais destinos de grande parte dos moldes produzidos em Portugal. Algumas das peças produzidas nesses moldes possuem dimensões apreciáveis, tendo em conta o peso e dimensão média das peças injectadas em plástico. São exemplo disso os pára-choques dos automóveis e o tabliê. A produção dos moldes para estas peças é complexa, implicando um longo tempo de maquinagem e a manipulação dos moldes em diferentes fases, com vista ao acesso a todas as faces do molde. A IGM – Indústria Global de Moldes, SA. é a empresa responsável pela produção dos moldes para peças de média dimensão dentro do Grupo SIMOLDES. Atendendo à necessidade permanente de rodar a 90o moldes de grande porte, que podem apresentar pesos na ordem das 10 a 30 toneladas, e não existindo no mercado qualquer solução adaptável a esta necessidade, a empresa entendeu por bem levar a efeito o projecto desse equipamento, atendendo ao compromisso custo-benefício que torne viável a realização prática do mesmo. Após os esboços iniciais e uma discussão interactiva e iterativa com a empresa, foram analisadas as diferentes soluções entendidas como viáveis, tendo sido escolhido um dos anteprojectos realizados. Foram ainda discutidas as diversas alternativas de accionamento. Com base nesse anteprojecto, a estrutura foi optimizada e verificada através do Método de Elementos Finitos, tendo sido elaborado o projecto final, com o grau de detalhe necessário à sua fabricação e implementação na empresa.
Resumo:
A rinite alérgica é definida como uma inflamação da mucosa nasal, induzida pela exposição a alergénios, desencadeando sintomas como a rinorreia aquosa, obstrução/prurido nasais, espirros e sintomas oculares. É um problema de saúde que afeta entre 10 a 20% da população mundial, (aproximadamente 400 milhões de pessoas). Estudos sobre a perceção da qualidade de vida de doentes alérgicos comprovam que a rinite alérgica está associada à asma, à sonolência e provoca um forte prejuízo na qualidade de vida. Os objetivos da presente investigação são: estimar a prevalência da rinite alérgica em utentes de farmácias comunitárias do concelho da Guarda, determinar a predominância dos seus sintomas de rinite alérgica, determinar o impacto da rinite alérgica na qualidade de vida dos mesmos, bem como caracterizar as estratégias de controlo e de tratamento da rinite alérgica. O estudo realizado é observacional, transversal e analítico, baseando-se na aplicação de um instrumento de recolha de dados por entrevista num período pré-definido que decorreu entre maio e dezembro de 2014, compreendido entre as 9h e as 20 horas, obtendo-se um total de 804 respostas. . No planeamento do estudo assumiu-se uma prevalência da rinite alérgica de 25%, um erro padrão de 3%, um nível de confiança de 95% e considerámos uma amostra de dimensão 800. Este valor pressupõe um método de amostragem aleatório, sendo 804 a dimensão da amostra em estudo. Para a determinação do impacto da rinite alérgica na qualidade de vida e o controlo da situação clínica dos inquiridos recorreu-se a dois instrumentos de avaliação, o WHOQOL-Bref e o teste CARAT10. O teste CARAT10 pretende avaliar o grau de controlo dos doentes de rinite alérgica e de asma, enquanto o WHOQOL-Bref destina-se à avaliação da qualidade de vida tendo em conta a perceção do indivíduo no contexto da sua cultura, valores, objetivos pessoais, padrões e preocupações. Da análise das respostas dos inquiridos relativamente à sua situação clínica estimou-se uma taxa de prevalência de rinite alérgica entre 10,8% e 15,4%. Dos indivíduos com rinite alérgica 40% não tinham diagnóstico médico. Numa análise geral dos resultados obtidos com os métodos de inferência estatística aplicados aos dados, conclui-se que não existem diferenças por género em termos da qualidade de vida, nem no que diz respeito ao controlo dos sintomas de rinite alérgica da amostra. Por outro lado, demonstrou-se que o grau de escolaridade elevado (ensino superior) é um fator que contribui para uma melhor qualidade de vida e para um melhor controlo dos sintomas. Observou-se também que a qualidade de vida é superior nas atividades profissionais mais especializadas, que correspondem a um maior nível de escolaridade.
Resumo:
Qualquer estrutura hoje em dia deve ser resistente, robusta e leve, o que aumentou o interesse industrial e investigação nas ligações adesivas, nomeadamente pela melhoria das propriedades de resistência e fratura dos materiais. Com esta técnica de união, o projeto de estruturas pode ser orientado para estruturas mais leves, não só em relação à economia direta de peso relativamente às juntas aparafusas ou soldadas, mas também por causa da flexibilidade para ligar materiais diferentes. Em qualquer área da indústria, a aplicação em larga escala de uma determinada técnica de ligação supõe que estão disponíveis ferramentas confiáveis para o projeto e previsão da rotura. Neste âmbito, Modelos de Dano Coesivo (MDC) são uma ferramenta essencial, embora seja necessário estimar as leis MDC do adesivo à tração e corte para entrada nos modelos numéricos. Este trabalho avalia o valor da tenacidade ao corte (GIIC) de juntas coladas para três adesivos com ductilidade distinta. O trabalho experimental consiste na caracterização à fratura ao corte da ligação adesiva por métodos convencionais e pelo Integral-J. Além disso, pelo integral-J, é possível definir a forma exata da lei coesiva. Para o integral-J, é utilizado um método de correlação de imagem digital anteriormente desenvolvido para a avaliação do deslocamento ao corte do adesivo na extremidade da fenda (δs) durante o ensaio, acoplado a uma sub-rotina em Matlab® para a extração automática de δs. É também apresentado um trabalho numérico para avaliar a adequabilidade de leis coesivas triangulares aproximadas em reproduzir as curvas força-deslocamento (P-δ) experimentais dos ensaios ENF. Também se apresenta uma análise de sensibilidade para compreender a influência dos parâmetros coesivos nas previsões numéricas. Como resultado deste trabalho, foram estimadas experimentalmente as leis coesivas de cada adesivo pelo método direto, e numericamente validadas, para posterior previsão de resistência em juntas adesivas. Em conjunto com a caraterização à tração destes adesivos, é possível a previsão da rotura em modo-misto.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.
Resumo:
A crescente incorporação das evoluções tecnológicas nos equipamentos médicos modernos, além de os tornar mais compactos e precisos, proporciona igualmente ganhos de outros benefícios importantes, especialmente ao nível da eficiência das terapias prescritas aos pacientes. Os sofisticados ventiladores pulmonares de cuidados intensivos do presente espelham perfeitamente esta realidade e por isso necessitam de procedimentos técnicos de verificação metrológica – calibrações, também eles mais exatos e rastreáveis, de modo a fornecerem informações corretas sobre se o estado de funcionamento de um determinado ventilador cumpre ou não as tolerâncias declaradas pelo seu fabricante. Através da presente dissertação pretendeu-se desenvolver um procedimento técnico de calibração dos ventiladores de cuidados intensivos tendo-se estudado, para esta finalidade, os equipamentos de calibração específicos disponíveis no mercado, a normalização e o enquadramento regulamentar do controlo metrológico aplicáveis, bem como o princípio de funcionamento do ventilador pulmonar e a evolução da ventilação mecânica ocorrida. No domínio da abordagem efetuada sobre o âmbito da metrologia, implementou-se a determinação das incertezas dos resultados das calibrações efetuadas pelo procedimento técnico desenvolvido, de acordo com a metodologia constante do GUM1. Considerando ainda os défices significativos de conhecimento da metrologia e da prática do controlo metrológico no setor da saúde, a par dos riscos inerentes para os próprios pacientes, procura-se contribuir com este trabalho, de uma forma transversal e ampla, para uma maior consciencialização, quer dos profissionais de saúde, quer dos gestores envolvidos, para a relevância da realização das calibrações periódicas dos complexos equipamentos de suporte de vida que são os ventiladores pulmonares de cuidados intensivos.
Resumo:
Os modelos a ser analisados pelo Método de Elementos Finitos são cada vez mais complexos e, nos tempos que correm, seria impensável realizar tais análises sem um apoio computorizado. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura. Sob o pretexto de permitir a qualquer utilizador uma análise de estruturas simples com o Método dos Elementos Finitos, surge esta tese, onde se irá criar de raiz um programa com interface gráfica no ambiente MATLAB® para análise de estruturas simples com dois tipos de elemento finito, triangular de deformação constante e quadrangular de deformação linear. O software desenvolvido, verificado por comparação com um software comercial dedicado para o efeito, efetua malhagem com elementos bidimensionais triangulares e quadriláteros e resolve modelos arbitrados pelo Método de Elementos Finitos, representando estes resultados visualmente e em formato tabular.
Resumo:
O Modelo Escoras e Tirantes surgiu no início do Século XX quando Ritter e Mörsch estabeleceram a analogia entre uma treliça clássica e uma viga de betão armado. Desde então pesquisadores têm estudado esse modelo como método de dimensionamento. A partir dos anos 90 várias normas apresentaram a utilização do modelo escoras e tirantes como relevante no dimensionamento de elementos de betão armado. Os critérios de segurança do Modelo Escoras e Tirantes são neste trabalho explicados de acordo com o Eurocódigo 2:2010, e comparadas com as normas NBR 6118:2014 e ACI 318:2011. É unanime dizer que a utilização do método torna-se mais vantajosa para regiões de descontinuidade. Em todos os elementos de betão armado, o Método Escoras e Tirantes são representações dos campos de tensão idealizados por elementos comprimidos e tracionados. Para a definição destes elementos é proposto o processo de “caminho de carga” em que conhecidas as tensões elásticas e suas direções principais utilizando o Método dos Elementos Finitos o modelo das escoras e tirantes é de fácil concepção. É também possível a definição deste a partir de modelos padrão já concebidos para determinados tipos de elementos estruturais de betão armado. Para o elemento descontinuo viga-parede estudado foram apresentados cinco modelos de cálculo até otimizar a solução validando as tensões com o Método dos Elementos Finitos. Em todos os modelos foram analisadas a definição do Modelo Escoras e Tirantes, a resistência das escoras, dos tirantes e dos nós até chegar à solução construtiva da viga-parede. Concluiu-se que a definição do modelo é a chave do dimensionamento.