126 resultados para TERCEIRA DIMENSÃO (MODELAGEM COMPUTACIONAL) $$2larpcal
Resumo:
A atividade de teste constitui uma fase de grande importância no processo de desenvolvimento de software, tendo como objetivo garantir um alto grau de confiabilidade nos produtos desenvolvidos. O paradigma da Orientação a Objetos (OO) surgiu com o objetivo de melhorar a qualidade bem como a produtividade no desenvolvimento de aplicações. Entretanto, apesar do aumento constante de aceitação do paradigma OO pela indústria de software, a presença de algumas de suas características torna a atividade de teste de programas neste paradigma mais complexa do que o teste de sistemas tradicionais. Entre estas características cita-se a herança, o encapsulamento, o polimorfismo e a ligação dinâmica [EIS 97] [PRE 95] [UNG 97]. Algumas técnicas estão sendo implementadas para auxiliarem a atividade de teste através do uso da tecnologia de reflexão computacional [HER 99]. Estas técnicas permitem a realização de análises de aspectos dinâmicos dos programas, sem a necessidade de instrumentar o código-fonte das aplicações que estão sendo monitoradas. Com o objetivo de auxiliar o processo de teste de programas orientados a objetos, este trabalho aborda o desenvolvimento de uma ferramenta, a qual automatiza parcialmente o teste de programas escritos em Java. A ferramenta evidencia o teste de estados fazendo uso da tecnologia de reflexão computacional. Através da especificação de asserções, feitas pelo usuário da ferramenta, na forma de invariantes de classe, pré e pós-condições de métodos, é possível verificar a integridade dos estados dos objetos durante a execução do programa em teste. A ferramenta possibilita também, armazenar a seqüência de métodos chamados pelos objetos da aplicação em teste, tornando possível ao testador, visualizar o histórico das interações entre os objetos criados no nível-base.
Resumo:
O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.
Resumo:
Este estudo avalia a dinâmica de correntes de densidade conservativas através da análise da influência dos principais parâmetros que atuam no escoamento: a diferença de massa específica (Dr) entre os fluidos, a declividade do canal e o volume inicial. As correntes simuladas com soluções salinas em canal unidimensional utilizaram massa específica inicial numa faixa que variou de 1010 kg/m3 a 1045 kg/m3. Também foram conduzidos ensaios em canal bidimensional onde a declividade foi variada de –0,5º a 4º, utilizando soluções salinas de 1010 kg/m3 e 1022 kg/m3. Em ambos os canais, os volumes iniciais foram variados para verificar sua influência no escoamento. Os resultados mostraram que a variação de apenas 1% em Dr provoca um acréscimo de 25% na velocidade média da corrente, indicando que esse parâmetro é determinante na sua dinâmica. O escoamento da corrente apresenta um regime não permanente, sendo que há uma aceleração no início do movimento até que se atinja a velocidade máxima, seguido de uma desaceleração da corrente. Durante o escoamento, a velocidade de avanço da cabeça da corrente apresenta oscilações com uma freqüência principal definida. A correlação dessa freqüência com a freqüência de desprendimento de vórtices, através do número de Strouhal (St), é forte, sugerindo que na simulação física de correntes de densidade, não só o número de Froude Densimétrico deve ser respeitado, mas também o número de Strouhal.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
O presente trabalho é dedicado ao estudo de métodos de simulação para ciclos de Rankine. O trabalho é iniciado com a modelagem de um ciclo de Rankine simples e segue evoluindo para configurações mais complexas tal como o ciclo de Rankine com reaquecimento e regeneração. São adotadas as considerações mais convencionais da prática de projeto de centrais termelétricas cujos sistema térmicos baseiam-se no ciclo de Rankine, incluindo-se queda de pressão em tubulações do circuito além de outras perdas. Em seguida, são estabelecidas as expressões matemáticas que possibilitam a determinação das propriedades termodinâmicas da água em seus mais diversos estados ao longo do ciclo. Por último, são desenvolvidos métodos de simulação, chamados neste trabalho de Substituição Sucessiva e Bloco Único, que caracterizam-se pela resolução simultânea do conjunto de equações algébricas dos ciclos elaborados. As simulações são efetuadas através de programas escritos na linguagem Fortran. Os métodos de simulação são aplicados para a obtenção dos resultados considerados mais importantes na análise de sistemas térmicos de potência, tais como rendimento térmico do ciclo, título na saída da turbina, vazões mássicas pelo sistema, potência nas bombas e calor trocado no gerador de vapor e no condensador Na maioria das simulações, estes resultados apresentam-se como funções da: (1) potência elétrica requerida, eficiência isentrópica e pressões na turbina; (2) eficiência térmica, pressão e temperatura no gerador de vapor; (3) pressão e grau de subresfriamento do líquido saturado no condensador e (4) eficiência isentrópica das bombas. São obtidos os mesmos resultados para os métodos de simulação utilizados. O método da Substituição Sucessiva apresentou menor tempo computacional, principalmente para configurações de ciclo mais complexas. Uma aplicação alternativa do método de Bloco Único demonstrou ser inconveniente para ciclos de configurações mais complexas devido ao elevado tempo computacional, quando todas as equações de cálculo das propriedades termodinâmicas são incluídas no sistema de equações a ser resolvido. Melhores rendimentos térmicos e título na saída da turbina foram obtidos para configurações de ciclo de Rankine com reaquecimento e regeneração.
Resumo:
O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.
Resumo:
Este trabalho descreve a aplicação da Programação Genética, uma técnica de Computação Evolucionária, ao problema da Síntese de Fala automática. A Programação Genética utiliza as técnicas da evolução humana para descobrir programas bem adaptados a um problema específico. Estes programas, compostos de instruções, variáveis, constantes e outros elementos que compõe uma linguagem de programação, são evoluídos ao longo de um conjunto de gerações. A Síntese de Fala, consiste na geração automática das formas de ondas sonoras a partir de um texto escrito. Uma das atividades mais importantes, é realizada através da conversão de palavras e letras para os sons da fala elementares (fonemas). Muitos sistemas de síntese são implementados através de regras fixas, escritas por programadores humanos. Um dos mais conhecidos sistemas de síntese é o FESTIVAL, desenvolvido pela Universidade de Edimburgh, usando a linguagem de programação funcional LISP e um número fixo de regras. Neste trabalho, nós exploramos a possibilidade da aplicação do paradigma da Programação Genética, para evoluir automaticamente regras que serão adotadas para implementação do idioma Português na ferramenta FESTIVAL, desenvolvido no projeto SPOLTECH (CNPq – NSF cooperação entre UFRGS e Universidade do Colorado). A modelagem do problema, consiste na definição das regras de pronúncia do Português Brasileiro, que a implementação do sistema FESTIVAL pronuncia erradamente, já que o mesmo foi implementado primariamente para o idioma Inglês. A partir destas regras, o sistema de Programação Genética, desenvolvido neste trabalho, evolui programas que constituem boas soluções para a conversão de letras para fonemas. A descrição dos resultados obtidos, cobre detalhes sobre a evolução das soluções, complexidade e regras implementadas, representadas pelas soluções mais bem adaptadas; mostrando que a Programação Genética, apesar de ser complexa, é bastante promissora.
Resumo:
Técnicas de Processamento de Imagens e de Computação Gráfica vêm sendo empregadas há bastante tempo para o diagnóstico por imagens em Medicina. Mais recentemente, aplicações baseadas em modelos anatômicos, tanto extraídos de volumes de imagens como criados com base em estudos de anatomia, despontam com força. Tais modelos visam suportar simulação de movimento e de fisiologia. Porém, para que isso se torne realidade, modelos anatômicos do corpo humano precisam ser construídos e aperfeiçoados. Entre outras funcionalidades, esses modelos devem ser capazes de representar o movimento articulado do corpo humano. O problema de modelagem das articulações já foi considerado em diversos trabalhos, principalmente em Robótica e Animação. Entretanto, esses trabalhos não levaram em conta fidelidade anatômica com profundidade suficiente para que pudessem ser utilizados em aplicações de Medicina. O principal objetivo deste trabalho, portanto, é a criação de uma estratégia de representação de articulações embasada em características anatômicas para modelagem de esqueletos humanos virtuais. Um estudo da anatomia do esqueleto humano é apresentado, destacando os tipos de articulações humanas e aspectos do seu movimento. Também é apresentado um estudo dos modelos de articulações encontrados na literatura de Computação Gráfica, e são comentados alguns sistemas de software comercial que implementam corpos articulados. Com base nesses dois estudos, procurou-se identificar as deficiências dos modelos existentes em termos de fidelidade anatômica e, a partir disso, propor uma estratégia de representação para articulações humanas que permitisse a construção de corpos humanos virtuais anatomicamente realísticos. O modelo de articulações proposto foi projetado com o auxílio de técnicas de projeto orientado a objetos e implementado no âmbito do projeto Virtual Patients. Usando as classes do modelo, foi construído um simulador de movimentos, que recebe a descrição de um corpo articulado através de um arquivo em formato XML e apresenta uma animação desse corpo. A descrição do movimento também é especificada no mesmo arquivo. Esse simulador foi utilizado para gerar resultados para verificar a correção e fidelidade do modelo articular. Para isso, um joelho virtual foi construído, seus movimentos foram simulados e comparados com outros joelhos: o modelo de outro simulador, um modelo plástico anatômico e o joelho real.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Modelo numérico para análise à flexão de elementos estruturais com protensão aderente e não aderente
Resumo:
Na protensão não aderente, a armadura permanece livre para se movimentar ao longo de seu perfil em todas as seções com exceção das de ancoragem. Não há aderência entre concreto e armadura, e a hipótese da compatibilidade de deformações entre o aço e concreto não é aplicável, tornando inviável o desenvolvimento de uma solução analítica. Visando colaborar para a maior compreensão do comportamento à flexão das estruturas com protensão não aderente e para o desenvolvimento de critérios nacionais de projeto, um modelo numérico foi implementado utilizando o elemento finito do tipo híbrido para pórticos planos. Nesta formulação, a equação para as solicitações ao longo do elemento é a função de interpolação, e as forças as variáveis interpoladas. Como esta função resulta das condições de equilíbrio, sem hipóteses arbitrárias, o método é considerado exato para forças e curvaturas. Elementos longos são possíveis, de maneira que um único elemento finito pode ser utilizado para um vão de viga ou pilar, reduzindo o esforço computacional. O caráter exato da formulação contribui para a boa modelagem dos cabos não aderentes, já que a tensão nestas armaduras depende das curvaturas de todas as seções do elemento. O modelo numérico proposto prevê a não linearidade geométrica, carregamentos cíclicos e a construção composta. Relações constitutivas já consolidadas na literatura são empregadas para os materiais. A cadeia de Maxwell é utilizada para representar o comportamento reológico do concreto e do aço de protensão, respeitando as características de envelhecimento de cada material. Inúmeros exemplos são apresentados, permitindo a comparação entre resultados numéricos e experimentais Uma análise paramétrica foi realizada, caracterizando o desempenho do modelo numérico frente a variações nos parâmetros de entrada. Discutem-se, ainda, dois critérios de ruptura para a utilização do modelo numérico no estudo do comportamento à flexão das estruturas com protensão não aderente. Os resultados indicam o bom desempenho do modelo numérico e a sua adequação para a realização de pesquisas sobre o assunto.
Resumo:
O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.