13 resultados para GEOMETRIA COMPUTACIONAL
em Biblioteca de Teses e Dissertações da USP
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
Em geral, uma embarcação de planeio é projetada para atingir elevados níveis de velocidade. Esse atributo de desempenho está diretamente relacionado ao porte da embarcação e à potência instalada em sua planta propulsiva. Tradicionalmente, durante o projeto de uma embarcação, as análises de desempenho são realizadas através de resultados de embarcações já existentes, retirados de séries sistemáticas ou de embarcações já desenvolvidas pelo estaleiro e/ou projetista. Além disso, a determinação dos atributos de desempenho pode ser feita através de métodos empíricos e/ou estatísticos, onde a embarcação é representada através de seus parâmetros geométricos principais; ou a partir de testes em modelos em escala reduzida ou protótipos. No caso específico de embarcações de planeio, o custo dos testes em escala reduzida é muito elevado em relação ao custo de projeto. Isso faz com que a maioria dos projetistas não opte por ensaios experimentais das novas embarcações em desenvolvimento. Ao longo dos últimos anos, o método de Savitsky foi largamente utilizado para se realizar estimativas de potência instalada de uma embarcação de planeio. Esse método utiliza um conjunto de equações semi-empíricas para determinar os esforços atuantes na embarcação, a partir dos quais é possível determinar a posição de equilíbrio de operação e a força propulsora necessária para navegar em uma dada velocidade. O método de Savitsky é muito utilizado nas fases iniciais de projeto, onde a geometria do casco ainda não foi totalmente definida, pois utiliza apenas as características geométricas principais da embarcação para realização das estimativas de esforços. À medida que se avança nas etapas de projeto, aumenta o detalhamento necessário das estimativas de desempenho. Para a realização, por exemplo, do projeto estrutural é necessária uma estimativa do campo de pressão atuante no fundo do casco, o qual não pode ser determinado pelo método de Savitsky. O método computacional implementado nesta dissertação, tem o objetivo de determinar as características do escoamento e o campo de pressão atuante no casco de uma embarcação de planeio navegando em águas calmas. O escoamento é determinado através de um problema de valor de contorno, no qual a superfície molhada no casco é considerada um corpo esbelto. Devido ao uso da teoria de corpo esbelto o problema pode ser tratado, separadamente, em cada seção, onde as condições de contorno são forçadamente respeitadas através de uma distribuição de vórtices.
Resumo:
Pesquisadores e indústrias de todo o mundo estão firmemente comprometidos com o propósito de fazer o processo de usinagem ser precisamente veloz e produtivo. A forte concorrência mundial gerou a procura por processos de usinagem econômicos, com grande capacidade de produção de cavacos e que produzam peças com elevada qualidade. Dentre as novas tecnologias que começaram a ser empregadas, e deve tornar-se o caminho certo a ser trilhado na busca da competitividade em curto espaço de tempo, está a tecnologia de usinagem com altas velocidades (HSM de High Speed Machining). A tecnologia HSM surge como componente essencial na otimização dos esforços para manutenção e aumento da competitividade global das empresas. Durante os últimos anos a usinagem com alta velocidade tem ganhado grande importância, sendo dada uma maior atenção ao desenvolvimento e à disponibilização no mercado de máquinas-ferramentas com rotações muito elevadas (20.000 - 100.000 rpm). O processo de usinagem com alta velocidade está sendo usado não apenas para ligas de alumínio e cobre, mas também para materiais de difícil usinabilidade, como os aços temperados e superligas à base de níquel. Porém, quando se trata de materiais de difícil corte, têm-se observado poucas publicações, principalmente no processo de torneamento. Mas, antes que a tecnologia HSM possa ser empregada de uma forma econômica, todos os componentes envolvidos no processo de usinagem, incluindo a máquina, o eixo-árvore, a ferramenta e o pessoal, precisam estar afinados com as peculiaridades deste novo processo. No que diz respeito às máquinas-ferramenta, isto significa que elas têm que satisfazer requisitos particulares de segurança. As ferramentas, devido à otimização de suas geometrias, substratos e revestimentos, contribuem para o sucesso deste processo. O presente trabalho objetiva estudar o comportamento de diversas geometrias ) de insertos de cerâmica (Al2O3 + SiCw e Al2O3 + TIC) e PCBN com duas concentrações de CBN na forma padrão, assim como modificações na geometria das arestas de corte empregadas em torneamento com alta velocidade em superligas à base de níquel (Inconel 718 e Waspaloy). Os materiais foram tratados termicamente para dureza de 44 e 40 HRC respectivamente, e usinados sob condição de corte a seco e com utilização da técnica de mínima quantidade de lubrificante (minimal quantity lubricant - MQL) visando atender requisitos ambientais. As superligas à base de níquel são conhecidas como materiais de difícil usinabilidade devido à alta dureza, alta resistência mecânica em alta temperatura, afinidade para reagir com materiais da ferramenta e baixa condutividade térmica. A usinagem de superligas afeta negativamente a integridade da peça. Por essa razão, cuidados especiais devem ser tomados para assegurar a vida da ferramenta e a integridade superficial de componentes usinados por intermédio de controle dos principais parâmetros de usinagem. Experimentos foram realizados sob diversas condições de corte e geometrias de ferramentas para avaliação dos parâmetros: força de corte, temperatura, emissão acústica e integridade superficial (rugosidade superficial, tensão residual, microdureza e microestrutura) e mecanismos de desgaste. Mediante os resultados apresentados, recomenda-se à geometria de melhor desempenho nos parâmetros citados e confirma-se a eficiência da técnica MQL. Dentre as ferramentas e geometrias testadas, a que apresentou melhor desempenho foi a ferramenta cerâmica CC650 seguida da ferramenta cerâmica CC670 ambas com formato redondo e geometria 2 (chanfro em T de 0,15 x 15º com raio de aresta de 0,03 mm).
Resumo:
As expectativas da Organização Mundial de Saúde para o ano de 2030 são que o número de mortes por câncer seja de aproximadamente 13,2 milhões, evidenciando a elevada parcela desta doença no problema de saúde mundial. Com relação ao câncer de próstata, de acordo com o Instituto Nacional do Câncer, o número de casos diagnosticados no mundo em 2012 foi de aproximadamente 1,1 milhão, enquanto que no Brasil os dados indicam a incidência de 68 mil novos casos. O tratamento deste tipo de neoplasia pode ser realizado com cirurgia (prostatectomia) ou radioterapia. Dentre a radioterapia, podemos destacar a técnica de braquiterapia, a qual consiste na introdução (implante) de pequenas fontes radioativas (sementes) no interior da próstata, onde será entregue um valor elevado de dose no volume de tratamento e baixa dose nos tecidos ao redor. No Brasil, a classe médica estima uma demanda de aproximadamente 8000 sementes/mês, sendo o custo unitário de cada semente de pelo menos U$ 26,00. A Associação Americana de Físicos na Medicina publicou alguns documentos descrevendo quais parâmetros e análises devem ser realizadas para avaliações da distribuição de dose, como por exemplo, os parâmetros Constante de taxa de dose, Função radial e Função de anisotropia. Estes parâmetros podem ser obtidos através de medidas experimentais da distribuição de dose ou por simulações computacionais. Neste trabalho foram determinados os parâmetros dosimétricos da semente OncoSeed-6711 da empresa Oncura-GEHealthcare e da semente desenvolvida pelo Grupo de Dosimetria de Fontes de Braquiterapia do Centro de Tecnologia das Radiações (CTR IPEN-CNEN/SP) por simulação computacional da distribuição de dose utilizando o código MCNP5, baseado no Método de Monte Carlo. A semente 6711 foi modelada, assim como um sistema dosimétrico constituído por um objeto simulador cúbico de 30x30x30 cm3 preenchido com água. Os valores obtidos da semente 6711 foram comparados com alguns apresentados na literatura, onde o parâmetro Constante de taxa de dose apresentou erro relativo em relação ao valor publicado no TG- 43 de 0,1%, sendo que os outros parâmetros analisados também apresentaram boa concordância com os valores publicados na literatura. Deste modo, pode-se considerar que os parâmetros utilizados nas simulações (espectro, modelagem geométrica e avaliação de resultados) estão compatíveis com outros estudos, sendo estes parâmetros também utilizados nas simulações da semente do IPEN. Considerando as análises de incerteza estatística, os valores obtidos da semente do IPEN são semelhantes aos valores da semente 6711.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Este trabalho trata do desenvolvimento de um sistema computacional, para a geração de dados e apresentação de resultados, específico para as estruturas de edifícios. As rotinas desenvolvidas devem trabalhar em conjunto com um sistema computacional para análise de estruturas com base no Método dos Elementos Finitos, contemplando tanto as estruturas de pavimentos; com a utilização de elementos de barra, placa/casca e molas; como as estruturas de contraventamento; com a utilização de elementos de barra tridimensional e recursos especiais como nó mestre e trechos rígidos. A linguagem computacional adotada para a elaboração das rotinas mencionadas é o Object Pascal do DELPHI, um ambiente de programação visual estruturado na programação orientada a objetos do Object Pascal. Essa escolha tem como objetivo, conseguir um sistema computacional onde alterações e adições de funções possam ser realizadas com facilidade, sem que todo o conjunto de programas precise ser analisado e modificado. Por fim, o programa deve servir como um verdadeiro ambiente para análise de estruturas de edifícios, controlando através de uma interface amigável com o usuário uma série de outros programas já desenvolvidos em FORTRAN, como por exemplo o dimensionamento de vigas, pilares, etc.
Resumo:
Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.
Resumo:
Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.
Resumo:
A área da Tecnologia da Informação no Brasil sofre um problema latente com a falta de planejamento e atrasos constantes em projetos, determinando para os profissionais vinculados a ela um ambiente altamente desmotivador para a condução de seus trabalhos. Supõe-se que o que possa corroborar para tal problema seja a formação educacional deficitária dos indivíduos que atuam neste segmento, principalmente aqueles relacionados a cargos executivos e que estejam exercendo atividades de gestão. De acordo com teóricos como Edgard Morin (2004), em se tratando de educação fundamental, média ou superior os aspectos educacionais podem ser considerados deficitários justamente porque, ao segmentar o conhecimento, eles promovem uma alienação do indivíduo, eliminando sua capacidade criativa e reflexiva. Seria interessante, portanto, que ao avaliar a capacidade cognitiva de uma pessoa, a inteligência a ser mensurada não seja abordada através de um único espectro de conhecimento, mas através de muitos deles. A teoria das Inteligências Múltiplas, desenvolvida por Howard Gardner vem de encontro a essa necessidade, pois de acordo com o autor, a inteligência de um indivíduo deve ser mensurada através de uma gama de nove espectros: Linguística, Musical, Lógico-Matemática, Espacial, Corporal Cinestésica, Interpessoal, Intrapessoal, Naturalista e Existencial. Isto posto, este trabalho aborda uma metodologia computacional para classificação e descoberta de padrões em indivíduos, sejam esses alunos ou profissionais graduados, de uma determinada área. Além da metodologia, foi proposto um estudo de caso, considerando cursos superiores relacionados à área de Computação no Brasil.
Resumo:
Uma ocorrência ferroviária tem danos imprevisíveis, desde um simples atraso do horário do trem enquanto o socorro ferroviário encarrilha o vagão, até prejuízos milionários com grande perda de ativos (material rodante e via permanente) e, em casos extremos, até vidas humanas. Portanto, as ferrovias nacionais sempre buscam maneiras de programar ações que minimizam este risco. Uma das principais ações é estabelecer critérios de manutenção sempre justos. Entretanto, estes critérios geralmente não contemplam de maneira conjunta a dinâmica veicular e a geometria da via permanente. Neste sentido, este trabalho elabora um modelo matemático de um vagão ferroviário de alta capacidade em conjunto com a flexibilidade do suporte da via permanente. O modelo matemático foi validado e considerado satisfatório, a partir da comparação das frequências naturais obtidas no vagão real e na comparação de seu resultado produzido a partir de uma entrada medida com equipamentos de controle de geometria de linha e de medições dinâmicas realizadas por vagão instrumentado. Um método estratégico para análise da segurança do veículo foi sugerida e utilizada mostrando-se capaz de determinar os comprimentos de onda da via permanente que devem ser priorizados na manutenção, bem como na análise da segurança do vagão quando na adoção de restrições de velocidades.
Resumo:
Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.