10 resultados para modelo computacional
em Biblioteca de Teses e Dissertações da USP
Resumo:
Em geral, uma embarcação de planeio é projetada para atingir elevados níveis de velocidade. Esse atributo de desempenho está diretamente relacionado ao porte da embarcação e à potência instalada em sua planta propulsiva. Tradicionalmente, durante o projeto de uma embarcação, as análises de desempenho são realizadas através de resultados de embarcações já existentes, retirados de séries sistemáticas ou de embarcações já desenvolvidas pelo estaleiro e/ou projetista. Além disso, a determinação dos atributos de desempenho pode ser feita através de métodos empíricos e/ou estatísticos, onde a embarcação é representada através de seus parâmetros geométricos principais; ou a partir de testes em modelos em escala reduzida ou protótipos. No caso específico de embarcações de planeio, o custo dos testes em escala reduzida é muito elevado em relação ao custo de projeto. Isso faz com que a maioria dos projetistas não opte por ensaios experimentais das novas embarcações em desenvolvimento. Ao longo dos últimos anos, o método de Savitsky foi largamente utilizado para se realizar estimativas de potência instalada de uma embarcação de planeio. Esse método utiliza um conjunto de equações semi-empíricas para determinar os esforços atuantes na embarcação, a partir dos quais é possível determinar a posição de equilíbrio de operação e a força propulsora necessária para navegar em uma dada velocidade. O método de Savitsky é muito utilizado nas fases iniciais de projeto, onde a geometria do casco ainda não foi totalmente definida, pois utiliza apenas as características geométricas principais da embarcação para realização das estimativas de esforços. À medida que se avança nas etapas de projeto, aumenta o detalhamento necessário das estimativas de desempenho. Para a realização, por exemplo, do projeto estrutural é necessária uma estimativa do campo de pressão atuante no fundo do casco, o qual não pode ser determinado pelo método de Savitsky. O método computacional implementado nesta dissertação, tem o objetivo de determinar as características do escoamento e o campo de pressão atuante no casco de uma embarcação de planeio navegando em águas calmas. O escoamento é determinado através de um problema de valor de contorno, no qual a superfície molhada no casco é considerada um corpo esbelto. Devido ao uso da teoria de corpo esbelto o problema pode ser tratado, separadamente, em cada seção, onde as condições de contorno são forçadamente respeitadas através de uma distribuição de vórtices.
Resumo:
A pesquisa apresenta uma adaptação do modelo matemático de lógica nebulosa. A adaptação é uma alternativa capaz de representar o comportamento de uma variável subjetiva ao longo de um intervalo de tempo, assim como tratar variáveis estáticas (como o modelo computacional existente). Pesquisas realizadas apontam para uma lacuna no tratamento de variáveis dinâmicas (dependência no tempo) e a proposta permite que o contexto em que as variáveis estão inseridas tenha um papel no entendimento e tomada de decisão de problemas com estas características. Modelos computacionais existentes tratam a questão temporal como sequenciador de eventos ou custo, sem considerar a influência de fenômenos passados na condição corrente, ao contrário do modelo proposto que permite uma contribuição dos acontecimentos anteriores no entendimento e tratamento do estado atual. Apenas para citar alguns exemplos, o uso da solução proposta pode ser aplicado na determinação de nível de conforto em transporte público ou auxiliar na aferição de grau de risco de investimentos no mercado de ações. Em ambos os casos, comparações realizadas entre o modelo de lógica nebulosa existente e a adaptação sugerida apontam uma diferença no resultado final que pode ser entendida como uma maior qualidade na informação de suporte à tomada de decisão.
Resumo:
Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.
Resumo:
A teoria de Jean Piaget sobre o desenvolvimento da inteligência tem sido utilizada na área de inteligência computacional como inspiração para a proposição de modelos de agentes cognitivos. Embora os modelos propostos implementem aspectos básicos importantes da teoria de Piaget, como a estrutura do esquema cognitivo, não consideram o problema da fundamentação simbólica e, portanto, não se preocupam com os aspectos da teoria que levam à aquisição autônoma da semântica básica para a organização cognitiva do mundo externo, como é o caso da aquisição da noção de objeto. Neste trabalho apresentamos um modelo computacional de esquema cognitivo inspirado na teoria de Piaget sobre a inteligência sensório-motora que se desenvolve autonomamente construindo mecanismos por meio de princípios computacionais pautados pelo problema da fundamentação simbólica. O modelo de esquema proposto tem como base a classificação de situações sensório-motoras utilizadas para a percepção, captação e armazenamento das relações causais determiníscas de menor granularidade. Estas causalidades são então expandidas espaço-temporalmente por estruturas mais complexas que se utilizam das anteriores e que também são projetadas de forma a possibilitar que outras estruturas computacionais autônomas mais complexas se utilizem delas. O modelo proposto é implementado por uma rede neural artificial feed-forward cujos elementos da camada de saída se auto-organizam para gerar um grafo sensóriomotor objetivado. Alguns mecanismos computacionais já existentes na área de inteligência computacional foram modificados para se enquadrarem aos paradigmas de semântica nula e do desenvolvimento mental autônomo, tomados como base para lidar com o problema da fundamentação simbólica. O grafo sensório-motor auto-organizável que implementa um modelo de esquema inspirado na teoria de Piaget proposto neste trabalho, conjuntamente com os princípios computacionais utilizados para sua concepção caminha na direção da busca pelo desenvolvimento cognitivo artificial autônomo da noção de objeto.
Resumo:
Neste trabalho é proposto um modelo mecanobiológico de remodelagem óssea para a estimativa de variações, provocadas por perturbações mecânicas ou biológicas, na matriz de rigidez estrutural da escala macroscópica e na densidade mineral em uma região do osso. Na cooperação entre as áreas da saúde e da engenharia, como nos estudos estruturais de biomecânica no sistema esquelético, as propriedades mecânicas dos materiais devem ser conhecidas, entretanto os ossos possuem uma constituição material altamente complexa, dinâmica e variante entre indivíduos. Sua dinâmica decorre dos ciclos de absorção e deposição de matriz óssea na remodelagem óssea, a qual ocorre para manter a integridade estrutural do esqueleto e adaptá-lo aos estímulos do ambiente, sejam eles biológicos, químicos ou mecânicos. Como a remodelagem óssea pode provocar alterações no material do osso, espera-se que suas propriedades mecânicas também sejam alteradas. Na literatura científica há modelos matemáticos que preveem a variação da matriz de rigidez estrutural a partir do estímulo mecânico, porém somente os modelos mais recentes incluíram explicitamente processos biológicos e químicos da remodelagem óssea. A densidade mineral óssea é um importante parâmetro utilizado no diagnóstico de doenças ósseas na área médica. Desse modo, para a obtenção da variação da rigidez estrutural e da densidade mineral óssea, propõe-se um modelo numérico mecanobiológico composto por cinco submodelos: da dinâmica da população de células ósseas, da resposta das células ao estímulo mecânico, da porosidade óssea, da densidade mineral óssea e, baseado na Lei de Voigt para materiais compósitos, da rigidez estrutural. Os valores das constantes das equações dos submodelos foram obtidos de literatura. Para a solução das equações do modelo, propõe-se uma implementação numérica e computacional escrita em linguagem C. O método de Runge-Kutta-Dorman-Prince, cuja vantagem consiste no uso de um passo de solução variável, é utilizado no modelo para controlar o erro numérico do resultado do sistema de equações diferenciais. Foi realizada uma avaliação comparativa entre os resultados obtidos com o modelo proposto e os da literatura dos modelos de remodelagem óssea recentes. Conclui-se que o modelo e a implementação propostos são capazes de obter variações da matriz de rigidez estrutural macroscópica e da densidade mineral óssea decorrentes da perturbação nos parâmetros mecânicos ou biológicos do processo de remodelagem óssea.
Resumo:
No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.