196 resultados para Estrutura eletronica - Simulação por computador
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não-conservativas desenvolvendo-se num canal bidimensional de grande porte (5,00x0,40x1,00m) e declividade variável. A metodologia empregada foi desenvolvida em estudos anteriores (Manica, 2002 e Ávila, 2003) para ensaios em canal de pequeno porte e adaptada para o canal de maior porte, objetivando gerar subsídios para o estudo dos efeitos da escala de simulação sobre os padrões deposicionais de correntes de turbidez. As correntes foram formadas por uma mistura de água e carvão com massa específica em torno de 1023 kg/m3. A granulometria dos carvões utilizados ficou entre 0,062-0,297mm para o Carvão 207 e entre 0,062-0,177mm para o Carvão 205. Os experimentos foram divididos em três etapas. Na primeira etapa, foram simuladas correntes simples com o objetivo de realizar a transposição da metodologia de simulação física de correntes de turbidez do canal de pequeno porte para o canal de grande porte. Os dados obtidos foram comparados com os resultados pré-existentes do canal de pequeno porte provenientes dos estudos de Ávila (2003). Na segunda etapa foram simuladas correntes consecutivas, as quais foram compostas de um total de quatro fluxos por ensaio. Novamente, os dados obtidos foram comparados com os resultados pré-existentes dos estudos de Ávila (2003). Finalmente, na terceira etapa, foram simuladas correntes simples sobre canal com declividades de –0,5° e 2,0°. As correntes 00000geradas durante a segunda e a terceira etapas também tiveram seus parâmetros geométricos (alturas da cabeça e do corpo) e hidrodinâmicos (velocidades e acelerações da cabeça) comparados com dados pré-existentes de simulações com correntes conservativas (Fabian, 2002) Os resultados obtidos demonstraram que os depósitos gerados durante a primeira etapa foram os que mais se assemelharam aos dados pré-existentes de Ávila (2003) no que se refere às distribuições longitudinais e verticais. Também se observou que as correntes nãoconservativas não apresentaram variações significativas das alturas da cabeça e do corpo para as declividades ensaiadas. Tais observações acerca dos depósitos e da hidrodinâmica sugerem que, para que se garanta a eliminação de efeitos de escala, devem ser mantidas constantes: a massa específica do sedimento empregado na mistura, as condições de admissão da mesma e também o valor do número de Froude Densimétrico. Também há indícios de que variações nos parâmetros geométricos das correntes podem estar associadas com a massa específica do sedimento empregado para a simulação e com as condições de admissão da mistura.
Resumo:
Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.
Resumo:
O presente trabalho pesquisa o fenômeno da transferência simultânea de calor e umidade em solos insaturados que envolvem dutos enterrados. Estes dutos e o solo envolvente compõem o chamado sistema trocador-armazenador de calor no solo, que é muitas vezes utilizado como fonte complementar de aquecimento em estufas solares agrícolas. O funcionamento do sistema trocador-armazenador de calor é baseado na energia armazenada no solo durante os horários de máxima insolação, sendo que durante a noite parte desta energia é recuperada. Durante o dia o ar quente do meio interno da estufa solar é bombeado para dentro do feixe de tubos enterrados, que devolvem o ar mais frio na outra extremidade. Por outro lado, durante a noite o ar mais frio do meio interno da estufa é bombeado para dentro dos dutos, os quais efetuam troca térmica com o solo envolvente, que neste horário possui a temperatura mais elevada do sistema. O objetivo geral deste trabalho é resolver o problema transiente periódico e tridimensional da transferência simultânea de calor e umidade em solos não-saturados, que compõem o sistema trocador-armazenador de calor, utilizando a simulação numérica. Como objetivos secundários têm-se: o melhoramento do sistema de troca térmica, a quantificação da parcela de calor transportado pela difusão da umidade no solo e a análise dos campos de temperatura e de conteúdo de umidade, sendo que a análise dos campos de umidade permite verificar se existe formação de frentes de secagem significativas na vizinhança dos dutos durante os sucessivos períodos de aquecimento e resfriamento a que o sistema é submetido. Na resolução do problema em questão é empregado o modelo clássico de Philip e De Vries para a transferência simultânea de calor e massa em meios porosos insaturados Neste modelo, as equações de conservação de energia e massa obtidas trazem explicitamente as influências combinadas dos gradientes de temperatura e de conteúdo de umidade nos processos de transporte de calor e umidade. O sistema de equações diferenciais governantes do problema em questão é resolvido numericamente utilizando o Método dos Volumes Finitos e na discretização destas equações é usada uma integração temporal totalmente implícita. Todas as propriedades difusivas e termofísicas empregadas são consideradas variáveis com a temperatura e o conteúdo de umidade. Os dutos de seção transversal circular do sistema trocadorarmazenador de calor no solo, são modelados como dutos de seção transversal quadrada de área equivalente para que coordenadas cartesianas possam ser utilizadas nos modelos analisados. Neste trabalho são simulados quatro modelos computacionais associados ao sistema trocador-armazenador de calor no solo. Estes modelos são compostos por: um duto isolado, um duto com convecção, dois dutos isolados e dois dutos com convecção. A variação da temperatura do ar na entrada do(s) escoamento(s), assim como a temperatura do meio ambiente, para os modelos com convecção, é dada por uma senóide com uma amplitude de 14 ºC. No modelo de um duto isolado, são realizadas simulações utilizando várias combinações dos parâmetros do modelo em questão e os resultados, assim obtidos, são comparados com aqueles encontrados na literatura Visando melhorar o sistema de troca térmica dos modelos computacionais investigados, são selecionados valores e intervalos de valores recomendados para os parâmetros do modelo de um duto isolado. Para este modelo, com um diâmetro de 0,1 m, são escolhidos valores (ou intervalos de valores) recomendados: de 4 m/s para a velocidade do escoamento interno dentro do duto, de 0,25 para o conteúdo de umidade do solo, de 5 até 20 metros para o comprimento do duto e de 0,20 até 0,30 m para a distância entre centros do dutos. As simulações dos quatro modelos computacionais realizadas utilizando as várias combinações dos valores recomendados para os parâmetros destes modelos, mostrou que não há diferença significativa entre os valores de calor volumétrico armazenado no solo empregando a resolução acoplada das equações de energia e de massa e a resolução da equação da temperatura. Mesmo para os modelos de um e de dois dutos com convecção a diferença percentual encontrada foi insignificante. Finalmente, são apresentados e analisados os campos de temperatura e de conteúdo de umidade para os quatro modelos computacionais avaliados. Os perfis de temperatura e de conteúdo de umidade em diferentes horários mostraram que, durante o dia, o solo absorve calor dos escoamentos internos de ar e, uma vez que, junto à superfície dos dutos tem-se regiões de maior temperatura, há, conseqüentemente, uma migração da umidade nestas regiões. Durante a noite, ocorre o contrário, o solo fornece calor aos escoamentos dentro dos dutos, e, desta forma, as regiões próximas aos dutos apresentam níveis de conteúdo de umidade superiores ao inicial. Ainda, os perfis de conteúdo de umidade para todas as situações analisadas mostraram que, não há formação de frentes de secagem significativas nas proximidades dos dutos que compõem os quatro modelos computacionais avaliados.
Resumo:
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.
Resumo:
A partir de uma revisão crítica dos estudos sobre comunicação mediada, focada principalmente nas teorias que buscam definir o difuso conceito de “interatividade”, sugere-se que tal termo seja evitado, por sua imprecisão e viés tecnicista. Para o estudo da interação mediada por computador, defende-se uma abordagem sistêmico-relacional, em seus desdobramentos para o estudo da comunicação interpessoal e da biologia do conhecimento. Tal referencial fundamenta, inicialmente, a crítica aos modelos teóricos que buscam equiparar máquinas e seres vivos. A partir disso, uma tipologia para o estudo da interação mediada por computador é proposta. Os dois tipos sugeridos de interação (aqui definida como “ação entre”) – interação mútua e interação reativa – são amplamente discutidos e diferenciados. Enquanto a interação mútua caracteriza-se por ações interdependentes e pelo desenvolvimento ativo de um relacionamento que tem impacto recursivo em seus interagentes, a interação reativa é marcada por um automatismo estímulo-resposta. Finalmente, ao valorizar o diálogo cooperativo na rede e o estabelecimento de uma educação problematizadora, esta tese propõe um roteiro de avaliação de ambientes de educação a distância, quanto às interações estabelecidas.
Resumo:
A presente dissertação discute e analisa como se constitui o processo de escolarização das Tecnologias da Informação e Comunicação (TICs) em turmas de séries iniciais no âmbito da escola pública. Na articulação dos estudos de Michel Foucault e dos Estudos Culturais Pós-estruturalistas, procurei investigar práticas escolares e examinar as relações de poder-saber aí implicadas. Além disso, atentei para aqueles movimentos/ações com a finalidade de fuga, ruptura, que entraram em luta com os mecanismos/estratégias ligados à constituição do processo em questão. Com esse objetivo, para compor o corpus de pesquisa, incursionei no espaço escolar e desenvolvi observações no laboratório de Informática em um período de aproximadamente quatro meses. De acordo com essas observações, produzi um diário de campo. Também realizei entrevistas com direção e vice-direção, professora responsável pelo laboratório de Informática, professoras, alunos e alunas de séries iniciais. Participei de uma reunião de professores e reuni alguns materiais sobre as TICs que me foram disponibilizados pela escola. Explorei tais materiais atentando para as práticas de significação que os tornaram possíveis, valendo-me dos pressupostos da análise de discurso foucaultiana, que aponta para a total inseparabilidade de discurso e prática. Utilizei como ferramentas analíticas os conceitos de prática, relações de poder-saber, linguagem, disciplina. A trama das ferramentas com os materiais possibilitou-me argumentar que a constituição do processo de escolarização das TICs está relacionada a um elemento por mim identificado como tendo tornado esse processo possível, qual seja, a necessária associação das TICs à educação escolarizada e pública. Do mesmo modo, analisei a disciplinarização como um dos processos implicados na constituição da escolarização das TICs. Por meio desse processo, foi possível examinar algumas práticas/estratégias disciplinares, tanto no eixo do corpo quanto no eixo dos saberes, comprometidas em adequar/ajustar as TICs a uma determinada estrutura e organização escolarizadas.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
As florestas ciliares são formações vegetais extremamente importantes em termos ecológicos, principalmente para a manutenção da qualidade dos cursos d’água. Porém, apesar de serem protegidas por lei, elas vêm sendo erradicadas, principalmente em áreas urbanas. Desta forma, estudos detalhados sobre a composição florística e a ecologia dos remanescentes dessas florestas são fundamentais para embasar qualquer iniciativa de proteger e restaurar essas formações vegetais. Com o objetivo de avaliar a estrutura, o estado de preservação da floresta ciliar e fornecer subsídios para as adequadas ações de manejo na restauração dessa formação, foi realizado um levantamento florístico e fitossociológico da vegetação arbóreo/arbustiva do Arroio da Brigadeira na cidade de Canoas/RS, numa área remanescente dentro do Parque Municipal Fazenda Guajuviras. Para a caracterização da composição do estrato arbóreo dominante da floresta e categorias sucessionais, a vegetação lenhosa foi separada em três componentes: regenerante (0,20m ≤ h < 1m); arbóreo-arbustivo (1m ≥ h e DAP < 5cm); arbóreo (DAP ≥ 5cm). O delineamento amostral foi de 20 parcelas para todos os componentes, sendo as dimensões de 4m², 25m² e de 100m² para cada parcela, respectivamente para o primeiro, segundo e terceiro componente. A estrutura da vegetação foi verificada através da distribuição horizontal e vertical dos seus indivíduos. A estimativa da regeneração natural baseou-se nos valores relativos de freqüência e densidade de cada espécie em três classes de altura. A organização das comunidades vegetais foi analisada por análise de agrupamentos através do programa MULVA 5. Na composição florística encontraram-se 56 espécies distribuídas em 27 famílias botânicas. As espécies com maiores valores de regeneração natural total (RNT), responsáveis por mais de 50%, foram: Myrcia multiflora (Lam.) DC. (22,03%), Eugenia hyemalis Cambess. (14,04%), Daphnopsis racemosa Griseb. (10,60%) e Ocotea pulchella Mart. (10,16%). O alto potencial de regeneração natural, com abundância de espécies típicas de sub-bosque, ressalta a importância do estudo dos componentes dos estratos inferiores da floresta para o conhecimento da dinâmica florestal. No componente arbóreo constatou-se a densidade total por área (DTA) de 2120 ± 617 indivíduos.ha-1. O Índice de Diversidade de Shannon foi de 2,80. O DAP médio foi de 10,45 ± 5,65cm. As espécies com maior valor de importância (VI) foram Eugenia hyemalis Cambess. (44,09), Prunus myrtifolia Urb. (34,51), Myrsine coriacea (Sw.) R.Br. (30,12) e Mimosa bimucronata (DC.) Kuntze (29,68). Os exemplares mortos apresentaram alta DTA, 280 ± 204,17 indivíduos.ha-1, possivelmente em decorrência da competição por espaço a ser ocupado. Pelos resultados obtidos, é possível afirmar que a floresta está em processo de regeneração, no estádio secundário inicial, e que existem agrupamentos vegetais. Conclui-se que o processo de restauração da floresta ciliar pode darse de forma natural, desde que seja garantido o isolamento de fatores desestabilizadores, preservando os processos naturais de estruturação das comunidades vegetais e interações bióticas.
Análise de escoamentos incompressíveis utilizando simulação de grandes escalas e adaptação de malhas
Resumo:
No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.
Resumo:
A transição à turbulência em uma camada de mistura estavelmente estratificada é de grande interesse para uma variedade de problemas geofísicos e de engenharia. Esta transição é controlada pela competição entre o cisalhamento do escoamento de base e as forças de empuxo, devido à estratificação em densidade do ambiente. Os efeitos do empuxo atuam no escoamento reduzindo a taxa de crescimento das perturbações e retardando a transição à turbulência, enquanto o cisalhamento fornece energia cinética ao escoamento. O presente trabalho investiga a natureza da transição à turbulência em uma camada de mistura temporal estavelmente estratificada através de Simulação Numérica Direta (DNS) e Simulação de Grandes Escalas (LES). O propósito da investigação é analisar o efeito da estratificação estável no desenvolvimento da instabilidade de Kelvin-Helmholtz (K-H) e na formação dos vórtices longitudinais, que se formam após a saturação dos turbilhões primários de K-H. Além deste propósito, é examinado, utilizando de DNS e LES, o desenvolvimento das instabilidades secundárias de K-H na camada baroclínica. Os testes numéricos tridimensionais são realizados com diferentes tipos de condições iniciais para a flutuação de velocidade transversal, enquanto uma condição forçada é usada para as outras duas componentes de flutuação de velocidade. Em particular, o efeito do comprimento transversal do domínio de cálculo é testado empregando diferentes comprimentos, enquanto são usadas as mesmas dimensões para a direção longitudinal e vertical. As simulações bidimensionais mostram que o aumento da estratificação inibe o processo de emparelhamento, reduz a troca de energia entre os turbilhões de K-H e o escoamento, atenua a instabilidade de K-H e diminui o fluxo vertical de massa. A instabilidade secundária do tipo K-H é identtificada na camada baroclínica para Re ¸ 500 quando há o processo de emparelhamento dos vórtices simulados. Na simulação a Re = 500, a instabilidade secundária de K-H aparece tanto para Ri = 0.07 (fraca estratificação) como para Ri = 0.167 (forte estratificação). Os resultados tridimensionais demonstram que os vórtices longitudinais são claramente formados na camada a Ri = 0. Por outro lado, nos casos estratificados os vórtices são enfraquecidos, devido ao gradiente longitudinal de densidade, que diminui a vorticidade nos turbilhões de K-H enquanto aumenta na região entre eles.
Resumo:
Este trabalho tem como objetivo a análise de um conjunto de obras que pertence ao grupo da vertente modernista brasileira, parte da escola carioca e parte da escola paulista. O fator comum entre elas é a independência dos elementos estruturais em relação aos demais que compõem os edifícios. O período delimitado para este estudo começa em 1936 e vai até 1961, de acordo com as datas dos projetos analisados. Como os momentos de consolidação das duas escolas não são coincidentes, o período entre essas datas é o maior, de acordo com o panorama nacional e internacional, que não deve ser considerado isoladamente em relação a cada escola. A Arquitetura Moderna Brasileira, tendo por base os princípios do racionalisma estutural, sob forte influência corbusiana, trilha o caminho de uma produção própria, valendo-se da cultura e tecnologia locais. Utilizando-se os exemplos de Lúcio Costa, Affonso Eduardo Reidy e Vilanova Artigas, de temas diversos, puderam ser analisadas as influências internacionais recebidas e o legado deixado por eles à produção arquitetônica brasileira desde então. Acompanham o texto escrito ilustrações que, além de seu caráter complementar, são imprescindíveis para a compreensão deste trabalho.
Resumo:
O tema turbiditos tem causado muita controvérsia nos últimos anos. A nosso ver, isto ocorre principalmente devido à diminuição das pesquisas sobre os mecanismos que envolvem a iniciação, o transporte e a deposição deste tipo de rocha. A proposta deste trabalho é avaliar o potencial da simulação física de correntes de turbidez em prever e explicar feições sedimentares em seus depósitos. Foi escolhido como protótipo um sistema turbidítico antigo situado na margem oriental brasileira. A geometria complexa do protótipo foi simplificada para construção do modelo nas instalações do Pavilhão Fluvial do Instituto de Pesquisas Hidráulicas. Foram desenvolvidos doze ensaios onde as observações realizadas sofisticaram-se a partir dos conhecimentos adquiridos nas etapas anteriores. Como resultado dos experimentos identificaram-se novos aspectos geométricos e dinâmicos das correntes de densidade não-conservativas e suas conseqüências na sedimentação. Constatou-se um caráter ondulatório no fluxo, que teve sua origem associada à geração de ondas internas às correntes associadas ao desprendimento de vórtices a partir da cabeça da corrente e sua propagação ao longo da porção superior da corrente. Esta dinâmica implica mudanças na taxa de sedimentação ou mesmo erosão pela corrente, associadas a variações da amplitude e freqüência daquelas ondas. Na cabeça da corrente, verificou-se uma distribuição homogênea de sedimento em suspensão desde a base até o topo da corrente. No corpo ela se divide em duas camadas, uma basal com maior concentração de sedimentos e outra, superior marcada pela expansão do fluxo. Nas quebras de declive do modelo, que ocorrem no meio do canal e no ponto em que a corrente perde o confinamento, foram observadas acelerações localizadas no fluxo. Dentre os parâmetros analisados nos experimentos, constatou-se que a vazão de alimentação tem grande influência nas características dos depósitos. De um modo geral, um aumento da vazão implica um deslocamento do pico deposicional no sentido da corrente e um aumento no conteúdo de frações mais grossas. Constatou-se, nos sedimentos depositados no canal, uma distribuição seqüenciada de formas de leito, que varia entre ripples de crista reta e ripples lingüóides. Reconheceu-se uma correlação entre a amplitude e o comprimento nestas formas de leito. Identificou-se em todos os casos em que houve o extravasamento da corrente a formação de ripples na lateral do canal com cristas lineares que indicam uma direção do fluxo próxima à que ocorre no canal. Foram desenvolvidos depósitos alongados no sentido do fluxo na área onde a corrente perde o confinamento. Observou-se uma grande similaridade entre os depósitos gerados nos experimentos e aqueles identificados em sistemas turbidíticos atuais e do registro geológico, tanto em afloramentos como em dados de subsuperfície.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
Os jogos eletrônicos são o tema desta investigação. A série de jogos para computador Tomb Raider, o objeto principal. Para desenvolver uma analítica em torno dos games, esta tese foi elaborada com base em duas problematizações: como nos tornamos sujeitos-jogadores em um campo estratégico chamado de jogos eletrônicos? Que efeitos tal campo tem sobre nós? Ambas foram construídas com base em teorizações foucautianas sobre a noção de governo. Elas funcionaram, dentre outras coisas, para compor os jogos eletrônicos como um campo estratégico de subjetivação articulado em torno de quatro grandes mecanismos de governo: a comunidade de jogadores, o currículo da série de jogos Tomb Raider, as histórias e narrativas e as personagens. Primeiramente, a composição da comunidade de jogadores tem base na organização de algumas técnicas de poder: a linguagem em comum entre os envolvidos; as técnicas de captura do consumidor; as técnicas de marketing, dentre outras. Em segundo lugar, por meio das histórias e das narrativas, os sujeitos-jogadores aprendem quem é a sua personagem, os motivos que a levaram a combater o mal, quem são seus amigos e inimigos, quais objetivos deverão ser cumpridos para se chegar ao final do jogo. Mesmo assim, o campo formado pelas técnicas de governo dos sujeitos-jogadores não se resume na organização de uma comunidade, da história e da criação de narrativas. Os games, como um campo estratégico de governo, relacionam-se, também, com a construção de suas personagens. Para a maior eficiência “pedagógica” dessa relação jogo-jogador, leva-se em conta, no desenvolvimento das histórias e na elaboração das personagens, aqueles a quem se quer capturar. Categorias como idade, sexo, comunidade da qual participam são de vital importância na elaboração dos jogos. Baseado nessas categorias, estão presentes nos games percepções do que é ou deveria ser um sujeitojogador. Os seres humanos, porém, como objetos do poder-saber, vão se constituindo como sujeitos de diversas maneiras. Não podemos falar em essência do sujeito. As relações de poder, dinâmicas e em constante movimento, vão sempre “fabricar novos sujeitos” e novas formas de subjetivação.