1000 resultados para Complexidade computacional


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise do comportamento estrutural sob incêndio constitui uma parte importante da engenharia de proteção contra incêndio, especialmente no caso de estruturas de aço, por sua alta condutividade térmica e relativa esbeltez das seções. As dificuldades econômicas e práticas, associadas à avaliação do comportamento estrutural, por meio de ensaios em escala real, têm estimulado o desenvolvimento e uso de métodos de simulação numérica. Esta tese trata da simulação numérica do comportamento de estruturas de aço sob condições de incêndio e se divide em três partes. As duas primeiras partes foram desenvolvidas na Universidade de Liége, na Bélgica, usando-se o programa SAFIR como ferramenta numérica. A terceira parte foi desenvolvida de forma independente, na Universidade Federal do Rio Grande do Sul. Na primeira parte, é feito um estudo comparativo entre o uso de elementos finitos de viga e de casca, na modelagem de vigas simplesmente apoiadas, sujeitas a flambagem lateral por torção. Os esforços de torção, presentes no caso de flambagem lateral, podem levar a uma plastificação da seção transversal e à conseqüente redução da rigidez à torção da seção. Da mesma forma, a degradação das propriedades do material, com o aumento da temperatura, leva à redução da rigidez à torção Havia dúvidas se o modelo com elementos de viga, com uma rigidez à torção constante, poderia fornecer uma resposta aceitável. O estudo mostrou que uma resposta com boa precisão pode ser conseguida, usando-se elementos de viga, desde que o módulo de elasticidade transversal seja ajustado para refletir seu valor correspondente à temperatura de falha. Isso implica um processo iterativo, uma vez que a temperatura de falha não é previamente conhecida. Por outro lado, a degradação da rigidez à torção, por efeitos de plastificação, pode ser ignorada. Na segunda parte, é feita a comparação entre as modelagens bidimensional e tridimensional, de galpões industriais de um andar, sob incêndio. Comumente, a estrutura de galpões industriais é composta por pórticos-tipo, dispostos em paralelo. A análise desses galpões é comumente feita pela simulação no plano do pórtico de aço ou, simplesmente, da treliça da cobertura Na análise bidimensional, importantes efeitos fora do plano são ignorados, como a redistribuição de esforços devido à degradação do material ou à expansão térmica, ou instabilidade lateral dos elementos. A importância desses efeitos e a adequabilidade do modelo 2D para representar o comportamento real são discutidas. Na terceira parte, um modelo numérico para a simulação tridimensional do comportamento de estruturas de aço sob incêndio é apresentado. O modelo é baseado no conceito de rótulas plásticas generalizadas, com modificações para melhor representar a formação e expansão da plastificação no elemento. A descrição cinemática adotada permite obter bons resultados, mesmo com o uso de poucos elementos. A determinação do vetor de esforços internos no elemento, incluindo os efeitos da temperatura, é detalhada. O procedimento foi validado por comparação com ensaios e com modelos numéricos mais sofisticados, como o programa SAFIR. Os resultados demonstram que o procedimento proposto pode ser usado como uma forma alternativa de análise 3D de estruturas sob incêndio, com precisão razoável e baixo esforço computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a influência que alguns parâmetros físicos têm no desempenho termoenergético de uma edificação com um sistema de condicionamento de ar do tipo expansão direta, e visa auxiliar na busca por soluções que aumentem a eficiência energética das construções brasileiras. Para tal foi utilizado o programa simulador EnergyPlus, onde são estudados casos em que se alteram os seguintes parâmetros físicos: localização geográfica, tipo de vidro utilizado nas fachadas, área envidraçada das fachadas, e a orientação da edificação em relação ao eixo norte verdadeiro. São usados dados de dias de projeto de verão e inverno segundo a ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) para obter cargas térmicas de refrigeração e aquecimento, e arquivos climáticos para obter os seguintes consumos elétricos anuais: do sistema de condicionamento de ar, das lâmpadas e total. Visando reduzir o consumo elétrico das lâmpadas da edificação e assim promover um uso racional da energia elétrica, é modelado um sistema de controle automático da potência das lâmpadas, o qual é comparado com o tradicional sistema liga/desliga das lâmpadas. Também é feita uma análise econômica comparativa entre estes dois tipos de controle de potência das lâmpadas, onde se verifica se há vantagem econômica em aliar a utilização de películas nos vidros das fachadas da edificação O estresse térmico em vidros, caracterizado pelo surgimento de trincas ou até mesmo ruptura devido ao aparecimento de consideráveis diferenças de temperatura em seu interior, é avaliado observando a evolução da temperatura média das faces externa e interna dos vidros ao longo de um dia de projeto de verão. Os resultados mostram que as orientações e os tipos de vidro alteram sensivelmente tanto a potência requerida pelo sistema de condicionamento de ar quanto os consumos elétricos anuais do sistema de condicionamento de ar, das lâmpadas e total; o sistema de controle automático da potência das lâmpadas revela um grande potencial de redução do consumo elétrico anual das lâmpadas e um pequeno potencial de redução da potência requerida pelo sistema de condicionamento de ar; a análise econômica mostra que a utilização de película nos vidros é economicamente viável em boa parte dos casos avaliados; e a comparação da temperatura da face interna dos vidros estudados mostra diferenças significativas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se a implementação da matriz de amortecimento viscoelástica para um programa computacional de análise de cascas laminadas de materiais compósitos. A formulação apresentada permite realizar análises dinâmicas de estruturas laminadas com a consideração do efeito do amortecimento para dois modelos diferentes: Kelvin e Zener. A matriz de amortecimento foi implementada de duas formas: proporcional à massa ou proporcional à rigidez. A equação do movimento do sistema dinâmico foi resolvida utilizando-se o método de Newmark para integração direta. Para o modelo Zener foi desenvolvida uma análise para um elemento com 1 grau de liberdade. Apresentam-se exemplos de aplicações da formulação para modelos viscosos, implementadas no programa de elementos finitos, submetidos a diferentes tipos de carregamentos, como carga distribuída e cargas de impacto com diferentes tipos de excitações. Comparações entre o comportamento dos modelos Kelvin e Zener foram realizadas para validar os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os resultados das análises feitas com estes dados indicaram diferenças significativas no aumento da amplitude do plano meridiano horizontal nasal do campo visual monocular, medidas em unidades angulares. As diferenças foram interpretadas como indicativas da influência dos três diferentes níveis de complexidade dos estímulos visuais. Concluiu-se, portanto, que a variável colativa por complexidade influi no ato perceptual do reconhecimento visual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho de pesquisa foi investigar o desempenho de alunos que trabalharam com atividades de simulação e modelagem computacionais no estudo de circuitos elétricos, utilizando o software Modellus, comparado com alunos expostos apenas ao sistema tradicional de ensino. A fundamentação teórica adotada esteve baseada no referencial de trabalho de Halloun sobre modelagem esquemática e na teoria de Ausubel sobre aprendizagem significativa. O estudo envolveu 193 alunos de cursos de Engenharia, da disciplina de Física-II oferecida pela UFRGS no 2° semestre de 2004. O procedimento didático ocorreu em duas etapas. Na primeira, os alunos do grupo experimental trabalharam com um conjunto de atividades sobre circuitos elétricos simples durante cinco aulas e na etapa seguinte, com um conjunto de atividades sobre circuitos RLC durante quatro aulas. Cada aula teve duração de 1h40min. Os resultados quantitativos mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos alunos dos grupos de controle, expostos apenas ao método tradicional de ensino. Os resultados de nossa análise qualitativa sugerem que muitos dos alunos atingiram uma aprendizagem significativa. Nossas observações e o levantamento de opiniões mostraram que o procedimento didático adotado exigiu muita interação dos alunos com as atividades computacionais, dos alunos entre si e com o professor, tornando-se um elemento motivador na aprendizagem dos alunos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de um estudo sobre acesso e fluxos de utilização dos serviços de saúde em Municípios da “Metade Sul” do Rio Grande do Sul, que se insere no programa interdisciplinar “Evolução e diferenciação da agricultura, transformação do meio natural e desenvolvimento sustentável em espaços rurais do Sul do Brasil”. Tem como objetivo caracterizar a rede de serviços de saúde existente em Camaquã e a utilização da mesma, pela identificação dos fluxos de utilização, do acesso dos usuários aos serviços de saúde de média complexidade, e o motivo que os levam ao uso desses serviços. Possui abordagem quanti-qualitativa, sendo transversal e do tipo exploratório e descritivo. A análise das trajetórias, acesso, fluxos e motivos de utilização dos serviços de saúde de média complexidade demonstra fragilidades do Sistema Público de Saúde em nosso País, representado no microespaço (o Município). A análise é enriquecida quando se tem oportunidade de conhecer a trajetória terapêutica dos usuários e o fluxo de utilização desses serviços, em função de um problema de saúde atual. Observa-se que a dificuldade está, por um lado, na falta de resolutividade dos problemas de saúde dos usuários, o que os leva a procurarem vários serviços de saúde, com trajetórias diversas, nos diferentes Municípios da área de estudo e, por outro lado, nas diferentes concepções das necessidades de saúde. Evidencia-se, portanto, a urgência de um inevitável engajamento político em prol da regionalização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este pesquisa, inserida no campo de estudo sobre mudanças organizacionais, buscou investigar como é realizada a gestão de mudanças na Criminalística da Polícia Federal. Para isso, partiu-se de um referencial teórico para a estruturação de categorias de análise essenciais para o estudo do tema, agrupadas em três dimensões: conteúdo da mudança, processo de implementação da mudança e contexto em que ocorreu a mudança. Dessa forma, essa pesquisa de caráter qualitativo avaliou o processo de gestão de mudança ocorrido por meio da implementação de indicadores de complexidade na Criminalística da Polícia Federal, à luz do modelo proposto por John P. Kotter para a implementação eficaz de mudanças nas organizações, considerando sua interação com as circunstâncias contextais prevalecentes. Para a coleta de dados foram utilizadas entrevistas semiestruturadas com os componentes do corpo gerencial e diretor da Criminalística, responsáveis pela condução do processo de implementação da mudança. A análise de documentos institucionais e a observação direta complementaram a coleta dos dados. Os resultados apontaram para uma significante concorrência dos fatores relacionados às três dimensões estudadas que impediu o alcance dos objetivos esperados com a mudança, destacando-se: a) aspecto negativo relacionado à própria natureza da mudança, que se enquadra no campo de avaliação de desempenho, questão polêmica que levanta muitas discussões; b) contexto organizacional desfavorável, por estar inserida em uma organização policial, com forte cultura disciplinar e punitiva; c) processo de gestão de mudança mal conduzido, de acordo com modelo teórico para a implementação eficaz de mudanças nas organizações proposto por Kotter (1995, 1997).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aumento da complexidade do mercado financeiro tem sido relatado por Rajan (2005), Gorton (2008) e Haldane e May (2011) como um dos principais fatores responsáveis pelo incremento do risco sistêmico que culminou na crise financeira de 2007/08. O Bank for International Settlements (2013) aborda a questão da complexidade no contexto da regulação bancária e discute a comparabilidade da adequação de capital entre os bancos e entre jurisdições. No entanto, as definições dos conceitos de complexidade e de sistemas adaptativos complexos são suprimidas das principais discussões. Este artigo esclarece alguns conceitos relacionados às teorias da Complexidade, como se dá a emergência deste fenômeno, como os conceitos podem ser aplicados ao mercado financeiro. São discutidas duas ferramentas que podem ser utilizadas no contexto de sistemas adaptativos complexos: Agent Based Models (ABMs) e entropia e comparadas com ferramentas tradicionais. Concluímos que ainda que a linha de pesquisa da complexidade deixe lacunas, certamente esta contribui com a agenda de pesquisa econômica para se compreender os mecanismos que desencadeiam riscos sistêmicos, bem como adiciona ferramentas que possibilitam modelar agentes heterogêneos que interagem, de forma a permitir o surgimento de fenômenos emergentes no sistema. Hipóteses de pesquisa são sugeridas para aprofundamento posterior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação busca investigar a hipótese de sobrecarga de opções, denominada em inglês como choice overload, associada ao aumento de complexidade e da quantidade de informações disponíveis, ou information overload, abordada e discutida por pesquisadores como O’Donoghue e Rabin (1998), Iyengar e Lepper (2000), Schwartz (2002), Iyengar, Jiang e Huberman (2003) e Gourville e Soman (2005). Neste trabalho, a investigação será no contexto da indústria de produtos de investimento brasileira. Para isso, através de uma pesquisa empírica, simulamos a decisão de um investidor comum diante de diferentes cenários propostos, com menos ou mais opções e menos ou mais informações. Em linha com as pesquisas citadas, evidências mostraram a importância de se considerar e avaliar esses efeitos, ainda que hipóteses previamente estabelecidas não tenham sido confirmadas e experimentos mais amplos precisem ser realizados. Neste estudo, quando a oferta se resume a apenas um fundo de investimento, mesmo que claramente melhor do que o cenário inicial, um alto índice de 32% ainda decide procrastinar a decisão, ou seja, apresentar apenas uma opção, o extremo oposto de choice overload, não se apresentou como uma solução eficaz. Também foram propostos outros dois cenários, ambos quase idênticos, com cinco alternativas de fundos de investimento e informações de retorno esperado e risco para cada um deles. No entanto, um desses dois cenários disponibilizava hyperlinks direcionando para lâminas com informações adicionais para cada fundo de investimento. Mesmo com a opção de ignorá-las, a sua apresentação fez com que o índice de procrastinação aumentasse de 16% para 28%, resultado diretamente relacionado a regret aversion. Estudos anteriores mostram que há altas chances de que essa procrastinação se perpetue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No contexto do desenvolvimento econômico, este trabalho tem como principal objetivo explorar a relação entre comércio internacional e produtividade. Após fazer uma ampla discussão sobre as teorias do comércio internacional e as teorias do desenvolvimento econômico, busca-se definir a relação de causalidade entre essas duas variáveis. A pergunta que se segue refere-se ao sentido da causalidade, ou seja, produtividade gera comércio ou comércio gera produtividade? Esse trabalho sugere que os dois sentidos são possíveis e a diferença encontra-se justamente no componente da produtividade que está sendo analisado. Assim, produtividade, no nível do produto (intrasetorial) gera comércio, tal como argumentam Smith (1776) e Ricardo (1817), mas comércio gera produtividade (intersetorial) tal como argumentam Hausmann, Hwang e Rodrik (2007) e McMillan e Rodrik (2011). Na sequência, o estudo faz uma ampla análise dos métodos de decomposição da produtividade, concluindo que existe mais de uma forma de se fazer essa decomposição e que a interpretação de cada uma dessas abordagens difere podendo enviesar as conclusões. Adicionalmente, é feita a decomposição da produtividade nos seus componentes utilizando duas bases de dados distintas: 10-Sector Database do GGDC e contas nacionais do IBGE, concluindo que, a depender da base, os resultados encontrados podem variar significativamente. Da mesma forma, dentro de uma abordagem estruturalista, diferenciam-se setores que possuem maior potencial de crescimento de setores tradicionais com menor potencial de crescimento. Definindo a complexidade das exportações a partir do conceito desenvolvido por Hausmann at al (2014), estimam-se para o caso brasileiro recente, através de um modelo de painel dinâmico, os coeficientes de uma equação para explicar variações no efeito intersetorial estático da produtividade. O modelo estimado sugere que a complexidade das exportações impacta significativa e positivamente o componente estrutural da produtividade. Assim, pode-se dizer que uma pauta de exportações com produtos mais sofisticados favorece o crescimento da produtividade via seu componente intersetorial.