49 resultados para tópico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca determinar se a película cinematográfica Blade Runner pode ser entendida como mito segundo a concepção de Joseph Campbell, bem como procura desvendar qual o significado do filme enquanto mito. Para o primeiro tópico, foi usado o método de análise textual, amparado no paradigma indiciário. Para o segundo tópico, foi feita uma comparação do Teste de Turing e do programa de conversação ELIZA, de Joseph Weizenbaum com Blade Runner. Nossa conclusão final remete à idéia da máquina como espelho simbólico do ser humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho examina a trajetória da poesia de Paulo Leminski, buscando estabelecer os termos do humor, da pesquisa metalingüística e do eu-lírico, e que não deixa de exibir traços da poesia marginal dos 70. Um autor que trabalhou com a busca do rigor concretista mediante os procedimentos da fala cotidiana mais ou menos relaxada. O esforço poético do curitibano Leminski é uma “linha que nunca termina” – ele escreveu poesias, romances, peças de publicidade, letras de música e fez traduções. Em todas suas ações, verifica-se o mesmo traço: a execução rigorosa dos ensinamentos dos faber poetas, na tradição poundiana, permeada pelo relaxo típico dos artífices marginais de um Brasil literário oscilando entre a gandaia e o rigor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A passividade da Liga 600 (76Ni 16Cr 8Fe), em Na2SO4 0,5 M, pH=2,0, em atmosfera desarejada e à temperatura ambiente, foi estudada empregando-se diferentes métodos eletroquímicos e não eletroquímicos. A voltametria cíclica, com eletrodo rotatório de disco, revelou um comportamento típico ativo-passivo, com valores para a densidade de corrente anódica bastante baixos, na ordem de alguns poucos mA/cm2. Dois picos de corrente anódica pouco resolvidos foram observados e atribuídos à provável dissolução ativa de níquel, cromo e ferro. A ausência de picos catódicos e a existência de uma histerese na região de potenciais negativos sugerem que o filme passivo formado na varredura direta não é totalmente reduzido na varredura inversa, permanecendo sempre algum tipo de filme residual sobre a superfície da liga. A região passiva se estende de aproximadamente 100 a 700 mV e corresponde à região onde níquel e cromo puros também encontram-se passivos nas condições experimentais empregadas. Na região de potenciais mais positivos do que 700 mV tem início o processo de dissolução transpassiva da liga. Constatou-se, também, que o comportamento ativo-passivo da liga é essencialmente influenciado pelo comportamento do cromo, o qual é conhecido ser bastante complexo. Através das medidas de impedância eletroquímica foi possível sugerir três circuitos equivalentes para o sistema liga/filme/solução, um para cada região de potencial (de dissolução ativa, passiva e transpassiva). Através dos mesmos pôdese caracterizar a composição química e transformações mais importantes apresentadas pelos filmes passivos formados sobre a Liga 600. As espectroscopias eletrônicas (Auger e XPS) revelaram que os filmes passivos formados são extremamente finos, na faixa de 1,2 a 1,8 nm, e que apresentam uma estrutura duplex, com uma região interna (em contato com a liga) enriquecida em cromo e uma região externa (em contato com a solução) rica em níquel e ferro. Além disso, com base nos resultados obtidos e no modelo previamente proposto para filmes passivos formados sobre o aço inoxidável 304 em solução de borato, é sugerida uma representação esquemática das prováveis estruturas dos óxidos e dos possíveis processos de transporte, para os filmes passivos formados sobre a liga. O comportamento capacitivo dos filmes passivos foi estudado empregando-se a equação de Mott-Schottky. Os resultados obtidos mostram que os filmes formados se comportam como semicondutores degenerados do tipo n e do tipo p, na região de potenciais situada maiores e menores do que o potencial de banda plana, respectivamente. Esse comportamento é considerado conseqüência das propriedades semicondutoras dos óxidos de ferro (tipo n) e cromo (tipo p) presentes nos filmes passivos. Essa interpretação é fortalecida pelos resultados obtidos através das espectroscopias eletrônicas, as quais possibilitam o estabelecimento de uma relação direta entre a composição química das duas regiões de óxidos e a análise de Mott-Schottky. O comportamento dos filmes formados na região de potenciais próximos ao potencial de banda plana é essencialmente controlado pelo óxido de níquel, cujo comportamento pode ser comparado ao de um dielétrico, sem alterar a semicondutividade do óxido de ferro, quando ambos encontram-se misturados. O alto grau de degenerescência se deve ao valor elevado da densidade de doadores e aceptores (~ 1021 cm-3). Baseado nos resultados obtidos, o modelo da estrutura eletrônica previamente proposto para explicar a semicondutividade de filmes passivos e térmicos crescidos sobre o aço inoxidável 304, pode também ser aplicado no presente estudo. Segundo tal modelo, a estrutura eletrônica dos filmes formados pode ser comparada a de uma heterojunção do tipo p–n, onde as regiões de carga espacial encontram-se localizadas nas interfaces liga-filme e filme-solução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa utilizou uma metodologia de ergonomia para diagnosticar a qualidade de vida percebida através de empregados em um grupo de empresas de comunicação em Porto Alegre-RS entre 2001 e 2003. A Análise Macroergônomica do Trabalho de Guimarães(1999) foi utilizada para entrevistar 80 trabalhadores, 10 gestores e 70 subordinados. A modalidade de entrevista foi semi estruturada com quatro perguntas, sendo que os gestores responderam uma quinta pergunta para relacionar com a fala dos subordinados. A todos os dados obtidos a partir das entrevistas foi atribuído um peso de importância, por função recíproca e posteriormente foram agrupados por similariedade. Os itens foram categorizados segundo os construtos ABCORE da Análise Macroergonômica do Trabalho de Guimarães(1999). Como ferramenta estatistíca utilizou-se a Análise da Variância - ANOVA não paramétrica. Houve uma comparação dos resultados obtidos com a Auditoria Operacional de RH de Fernandes(1996) que é um instrumento típico de medida de Qualidade de Vida no Trabalho. Comparou-se também com o Manual de Gestão de Pessoas do grupo de empresas. Concluiu-se que a percepção de Qualidade de Vida no trabalho pôde ser apreendida pela metodologia de Análise Macroergonômica do Trabalho de Guimarães(1999) e que as ferramentas de Qualidade de Vida no Trabalho podem ser complementares, especialmente, no que se refere à empresa e sua gestão Os resultados apontam para necessidades dos usuários no que diz respeito à organização do trabalho, mas por outro lado, há uma forte imagem interna da empresa. especialmente, no que concerne a benefícios que por vezes mascaram outras demandas dos trabalhadores. Para prosseguir com a investigação deste tema no grupo de empresas, sugeriu-se, como trabalho futuro, a elaboração de um questionário baseados nas demandas ergonômicas descortinadas e a participação efetiva dos trabalhadores em todas as etapas como prevê a Análise Macroergonômica do Trabalho de Guimarães(1999).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conceito de lugar é tradicionalmente associado às ações projetuais da Arquitetura e Urbanismo, embora o interesse pelo tema tenha experimentado uma diminuição a partir de meados do século XX. Por outro lado, entre o final do século XX e início do XXI, consolidou-se uma nova prática no campo projetual de lugar: o surgimento de lugares criados sob configurações novas - como parques temáticos, shopping malls, áreas históricas refuncionalizadas - reinstaurando o interesse pelo tópico. A Tese os denomina de “lugares da clonagem”, entendendo que são tentativas de replicar as características dos espaços nos quais se reconhece a manifestação do fenômeno da urbanidade - espaços percebidos como “lugares da urbanidade”. Os lugares da clonagem podem derivar de projetos que buscam identificar os estímulos ambientais responsáveis pela atribuição de urbanidade. A Tese defende que os projetos assim elaborados trazem efeitos favoráveis à qualificação das cidades contemporâneas, apoiando-se na hipótese de que os novos espaços tornar-se-ão percebidos como legítimos lugares para a sociedade contemporânea. Para sua demonstração, o trabalho inicialmente enuncia seus próprios termos de referência em relação a lugar, no capítulo intitulado “Apresentação do lugar”. Para poder avançar num tema que diariamente se renova, o capítulo “Conceituação de lugar” efetua uma revisão das bases conceituais de lugar em diferentes disciplinas, de modo a investigar o que podem acrescentar à modernização do conceito. Concentra seu foco seletivamente nas disciplinas mais relacionadas com as áreas projetuais, e em contribuições ainda em debate, ou menos divulgadas na literatura brasileira. O capítulo seguinte, “Investigação e Projetação de lugar”, imerge em antecedentes empíricos de pesquisas e de exemplares construídos, de modo a elaborar novas conjecturas teóricas e teóricopráticas. As variações que podem decorrer das tentativas de clonar a urbanidade são debatidas em “Variação na percepção de lugar”, que especula sobre as qualificações eventualmente atribuídas pelos lugares da clonagem ao ambiente urbanizado. O trabalho prossegue trazendo uma “Ilustração de lugares em cidades gaúchas”, apresentando em seqüência, a Usina do Gasômetro, em Porto Alegre; lugares da Serra Gaúcha, especialmente nas cidades da Região das Hortênsias e em Serafina Corrêa; e regressa a Porto Alegre, para examinar os projetos do DC-Navegantes e do Aeroporto Salgado Filho. Em “A lição dos lugares da clonagem” são emitidas as conclusões das ponderações, voltadas intencionalmente na direção de levantar uma dúvida razoável quanto à qualidade dos lugares inventados e sua pertinência nos contextos urbanos em que vivemos, para assim tentar encurtar a distância que, com apressado maniqueísmo, separa o lugar acreditado como “autêntico”, do lugar desmerecido como “inventado”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um novo método para a preparação de nanopartículas de metais de transição em solução. O método consiste na redução por hidrogênio molecular de sais metálicos imobilizados em líquidos iônicos derivados do cátion 1,3-dialquilimidazólio. Nanopartículas de Rh(0) com tamanho entre (2,1+-0,1)nm foram obtidas pela redução de RhCl3 em líquidos iônicos derivados do cátion n-butilmetilimidazólio BMI.X (X=BF4, PF6, CF3SO3), e aplicados como catalizadores para as reações de hidrogenação de olefinas e aromáticos. Nanopartículas de Pd(0) com tamanho entre (4,9+-1,5)nm foram obtidas pela redução de Pd(acac)2 em BMI.PF6 e aplicadas como catalisadores para a reação de hidrogenação de 1,3-butadieno em regime heterogêneo e suportadas em BMI.X (X=BF4, PF6). Nanopartículas bimetálicas de Pd-Rh(0) com tamanho entre (9,1+-0,8)nm também foram obtidas pela redução concomitante de PdCl2 e RhCl3 em líquidos iônicos BMI.X (X=BF4, PF6) e aplicadas como catalisadores para a hidrogenação de 1,5-ciclo-octadieno. Os resultados obtidos sugerem que o líquido iônico deve ser o responsável pela estabilização das nanopartículas e está intimamente relacionado com a atividade catalítica das nanopartículas. A aglomeração e a sistemática perda de atividade catalítica das nanopartículas parecem ser devidas à presença de hidrogênio molecular no meio reacional. Além disso, os resultados obtidos na síntese de nanopartículas bimetálicas indicam que a sua composição pode ser regulada pelas condições da reação de síntese. As reações de hidrogenação foram utilizadas como sondas químicas para o estudo das propriedades catalíticas das nanopartículas. Os resultados obtidos sugerem um mecanismo de reação de superfície, típico de sistemas heterogêneos clássicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo dos mecanismos de defesa do ego tem servido como indicativo do modo típico de um indivíduo lidar com os conflitos. Os mecanismos de defesa podem ser agrupados em três fatores alocados de forma hierárquica: fatores maduros, neuróticos e imaturos. Bond desenvolveu um questionário objetivo e auto-aplicável, o Defensive Style Questionnaire – DSQ, que visa identificar os derivados conscientes dos mecanismos de defesa. O objetivo desse estudo é o de descrever o processo de tradução do Defensive Style Questionnaire (DSQ-40) versão em português e avaliar a confiabiidade, validade de conteúdo de constructo dessa versão do instrumento. Métodos: A primeira versão da escala foi apresentada para cinco indivíduos, com graus diferentes de escolaridade, que efetuaram pequenos ajustes de linguagem. Posteriormente, a escala foi apresentada para três “experts”, que avaliaram a validade de conteúdo do instrumento. A versão final foi retraduzida e apresentada para o autor do instrumento original que aceitou essa versão do DSQ-40. Posteriormente foi avaliada a confiabilidade e validade da versão em português do Defensive Style Questionnaire (DSQ-40). A amostra constitui-se de 339 indivíduos. Uma subamostra (n=75) foi avaliada também pelo MMPI, e outra subamostra (n=66) foi também avaliada pelo DFS (Escala de Funcionamento Defensivo). Resultados: Houve necessidade de pequenos ajustes no vocabulário em oito questões e modificações na linguagem em quatro questões, resultando na versão final do instrumento. A média de correlação dos “experts” com cada defesa foi de 89%, e dos fatores maduros, imaturos e neuróticos foi de 100%. A análise fatorial do instrumento forneceu uma distribuição das defesas semelhante ao instrumento original. A avaliação teste-reteste demonstrou boa correlação intraclasse em todos os fatores. O uso de defesas imaturas e neuróticas foi maior entre os pacientes que os controles (p<0,05). Houve correlação entre o nível defensivo de acordo com o DFS (p=0,006) e MMPI (p=0,004) e as defesas imaturas. Conclusões: A adaptação do DSQ-40 por diferentes indivíduos com diferentes graus de escolaridade e pelo grupo de experts possibilitou o ajuste à realidade sociocultural brasileira. Os dados do presente estudo indicam que a versão em português do DSQ-40 possui características psicométricas que permite o seu uso na nossa cultura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A armazenagem de grãos é atualmente um importante tópico a ser explorado na região sul do Brasil, e vem se desenvolvendo consideravelmente nos últimos anos. Atualmente a armazenagem é feita através de silos cilíndricos que podem ser de grandes diâmetros ou elevados. Na área da armazenagem é importante implantar novas tecnologias como o caso de silos multicelulares prismáticos que são bastante difundidos nos Estados Unidos. Para estudar estes silos propõe-se analisar um caso real sob a ótica morfológica e dimensional. O estudo baseia-se na comparação entre métodos de análise estrutural analítica convencional com análise numérica através do cálculo por elementos finitos, além de testar as análises de cálculo mais avançadas. Para estudar um caso real buscaram-se informações detalhadas através de desenhos fornecidos por empresas que fabricam estes tipos de silos. Adotando um caso prático como padrão, na seqüência fez-se a análise da interação entre o número de módulos do silo com o objetivo de verificar a influência do número de módulos no dimensionamento dos componentes do silo. Analisou-se o referido projeto utilizando procedimentos clássicos de análise de dimensionamento (métodos analíticos) e compararam-se os mesmos com a análise utilizando o método dos elementos finitos. Adicionalmente executaram-se análises mais avançadas utilizando o método dos elementos finitos como não linearidade geométrica e física, flambagem e análise de freqüências e modos.Após as referidas análises pôde-se concluir que analisando dimensionalmente somente um módulo do silo, pode-se obter resultados que representam todo o conjunto de módulos. Além disso, verificou-se que a análise por elementos finitos é mais apropriada, pois permite menos simplificações de cálculo, apresentando assim resultados mais reais. Quanto às análises adicionais, verificou-se que a carga crítica de flambagem considerando a análise não linear geométrica por elementos finitos é maior do que a carga crítica obtida por análises convencionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um ambiente típico de cidade, onde vários edifícios altos e outros tipos de edificações encontram-se agrupados em grande proximidade, cada edifício pode influenciar o campo aerodinâmico dos outros e, portanto, as forças do vento agindo sobre os outros ao seu redor. A influência da vizinhança em determinadas situações pode ser favorável, por exemplo, servindo como proteção à incidência direta do vento. Entretanto, há casos em que a ação do vento pode causar efeitos indesejáveis: picos de sucção localizados, aumento dos valores médios das forças cortantes, momentos fletores e momentos torçores atuantes na edificação. Este trabalho visou analisar a resposta torcional devida aos efeitos estáticos da ação do vento em modelos reduzidos ensaiados no túnel de vento, de diversas configurações arquitetônicas, simulando as principais características reais do escoamento em que a edificação está imersa. Os resultados experimentais obtidos nos ensaios foram comparados com estimativas teóricas indicadas nas normas brasileira, canadense e alemã, e por um trabalho de pesquisa realizado por Isyumov, no Canadá. A análise dos resultados demonstrou que a NBR-6123, na sua recomendação das excentricidades das forças de arrasto para cálculo do momento torçor, subestima a indicação para a excentricidade na situação de edificações isoladas, porém cobre a maioria dos casos na prescrição da excentricidade para a situação de prédios submetidos aos efeitos de vizinhança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.