45 resultados para Legado Clássico
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
O trabalho se propõe a analisar a interação universidade-empresa em projetos de dois Centros de Biotecnologia localizados no Estado do Rio Grande do Sul, quais sejam: Centros de Biotecnologia do Estado do Rio Grande do Sul e Centro de Biotecnologia da Universidade Federal de Pelotas. Para esta análise, foram identificados modelos de interação universidadeempresa através do estudo de múltiplos casos. A partir da revisão de literatura, foi estabelecida uma tipologia de interação universidade-empresa, composta por 3 modelos: Modelo Clássico, Modelo de Mercado e Modelo de Parceria. Em seguida, foram classificados os projetos de interação universidade-empresa de cada centro. Os modelos utilizados nesta pesquisa serviram de instrumentos que definiram os critérios para análise do processo de interação. Nos projetos do Centro de Biotecnologia do Estado do Rio Grande do Sul houve a predominância do modelo de mercado, ou seja, buscam atender a uma necessidade do mercado. Nos projetos do Centro de Biotecnologia da Universidade Federal de Pelotas houve a predominância do modelo clássico, ou seja, o pesquisador desenvolve o conhecimento e o coloca à disposição das empresas. É fundamental que os pesquisadores se conscientizem do novo papel que os centros devem assumir perante a sociedade, de agente gerador de desenvolvimento. Para tanto, foram propostas ações para estimular e ampliar o processo de interação universidade-empresa em ambos os centros.
Resumo:
A Consultoria Interna tem sido a maneira encontrada pelas Organizações para buscar mais agilidade em seus processos a partir da quebra do paradigma clássico da visão fragmentada, típica da Era da Administração Científica. A partir de mudanças nas formas de organização do trabalho, embasadas numa concepção sistêmica, a Consultoria Interna tem assumido papel importante nas áreas meio, como atividade de cunho mais intelectual e de apoio à gestão. Esta análise, refere-se a um Estudo Exploratório sobre a forma com que as empresas gaúchas implantaram o Modelo de Consultoria Interna. O estudo abrangeu empresas do segmento metalúrgico, comunicação, celulose e saúde . Numa primeira etapa foram entrevistados gestores de Recursos Humanos responsáveis pela implantação do Modelo de Consultoria Interna e numa segunda etapa , foram entrevistados grupos de profissionais que atuam como consultores internos. A intenção foi de identificar os objetivos para com a adoção de tal prática, as estratégias de implementação e os resultados obtidos. Para analisar esta experiência, foram considerados os seguintes aspectos: o contexto das empresas, fatores desencadeadores, objetivos com a implantação, características da atividade, papel, envolvimento, competência, desempenho, relacionamento com clientes, estratégias de implementação e resultados obtidos. O estudo mostrou, por um lado, que as estratégias utilizadas pelas empresas não foram suficientes para implantar e desenvolver o Modelo de Consultoria Interna e que o nível de conhecimento sobre o tema ainda é muito superficial. Por outro lado, o Modelo trouxe resultados positivos em Organizações que se preocuparam em planejar estratégia de implantação. Do ponto de vista dos próprios consultores internos o Modelo favoreceu a um crescimento profissional considerável, apesar das dificuldades de ordem subjetivas e emocionais encontradas ao longo do processo e que nem sempre foram suportadas pelas Organizações.
Resumo:
A presente dissertação aborda o diálogo intertextual interdisciplinar que os filmes cinematográficos Shakespeare in Love (John Madden, 1998) e Looking for Richard (Al Pacino,1996) estabelecem em relação ao conjunto da obra de William Shakespeare. A análise dos filmes demonstra que, tanto pela estruturação de suas narrativas quanto por suas posturas frente ao legado cultural shakespeariano e seu papel na cultura de massa contemporânea, tais filmes configuram-se como obras de arte pós-modernistas. Tendo por base abordagens culturais abrangentes do fenômeno pós-modernista, concluimos que Shakespeare in Love e Looking for Richard propõem um redimensionamento da obra canônica de Shakespeare e de seu legado cultural na contemporaneidade, recuperando seu forte apelo popular através do cinema de entretenimento hollywoodiano.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
O objetivo deste trabalho foi avaliar a influência da desinfecção com ácido peracético a 0,2% (STERILIFE®, Lifemed Produtos Médicos Comércio Ltda, São Paulo,SP) sobre as propriedades de sorpção, solubilidade e microdureza Knoop das resinas acrílicas termopolimerizadas (RATA) e resinas acrílicas quimicamente ativadas (RAQA). Os ensaios de sorpção, solubilidade e microdureza Knoop foram realizados utilizando resina acrílica termopolimerizável e quimicamente ativada da marca CLÁSSICO (Art. Odontológicos Clássico Ltda, São Paulo, SP). A especificação nº 1567 da International Organization for Standardization (ISO) foi utilizada para a realização dos ensaios de sorpção e solubilidade. Foram confeccionados 20 corpos de prova de resina acrílica termopolimerizável e 20 corpos de prova de resina acrílica quimicamente ativada, divididos aleatoriamente em dois grupos de 10 corpos de prova para cada material. O primeiro grupo foi denominado grupo controle e o segundo foi submetido à desinfecção com ácido peracético por 10 minutos. Os corpos de prova cilíndricos com dimensões de 50mm de diâmetro e 0,5mm de espessura, foram mantidos em um dissecador com sílica gel, a 37°C, até a obtenção da massa constante (M1), obtida através de pesagens consecutivas em uma balança de precisão com resolução de 0,0001g. A seguir os corpos de prova foram imersos em água destilada a 37°C, durante 7 dias e posteriormente pesadas, para obtenção da massa M2. Após, os corpos de prova retornaram ao dissecador com sílica gel, a 37°C, até a obtenção da massa recondicionada (M3). A diferença entre M2 e M3 em relação ao volume do corpo de prova resultou na sorpção do mesmo e, a solubilidade foi calculada subtraindo M3 de M1 e dividindo pelo volume do corpo de prova. Para o ensaio de microdureza foram confeccionados 10 corpos de prova de cada resina. A mensuração da microdureza Knoop, utilizando o NU Research Microscope (VEB Carl Zeiss JENA- Germany), foi obtida antes e após a desinfecção de cada corpo de prova. Os resultados mostraram que a desinfecção com ácido peracético, tanto para as resinas acrílicas termopolimerizadas como para as quimicamente ativadas, não alterou significativamente as propriedades de sorpção e solubilidade, uma vez que continuaram atendendo às exigências da especificação nº 1567 da ISO, após o tratamento. Em relação a microdureza Knoop, os resultados mostraram que não houve diferença estatística significativa entre a microdureza anterior e posterior à desinfecção, tanto a resina de termopolimerização (p=0,992), como para a resina quimicamente ativada (p=0,999). Portanto, o processo de desinfecção de resinas acrílicas com ácido peracético, pode ser viável considerando as propriedades analisadas.
Resumo:
A Internet, apesar de sua grande popularização, é ainda uma incógnita sob o ponto de vista de seu alcance comercial e de suas implicações no estudo do Comportamento do Consumidor. Numerosos estudos estão sendo desenvolvidos, porém dentro de um contexto teórico clássico de Marketing, isto é, posicionando-a como um instrumento “midiático”. Diferentemente, este trabalho procura vê-la como um canal de marketing, analisando-a através da resposta de 726 usuários da Companhia de Processamento de Dados do Rio Grande do Sul – PROCERGS, provedor de acesso à Internet do Rio Grande do Sul. Foi possível identificar sete dimensões características do processo de compra na rede: 1) comodidade, 2) atendimento, 3) conteúdo informacional do site, 4) apresentação e interface da home page, 5) segurança, 6) taxa e tempo de entrega e 7) oferta de produtos. O estudo mostra que a oferta de produtos e a comodidade são os fatores que influenciam a decisão de compra, enquanto que a apresentação/interface da home page, a segurança e o atendimento são os fatores mais preponderantes na decisão de NÃO compra. Também são apresentadas as diferenças percebidas pelos usuários entre a compra realizada na Internet e a efetuada nos canais tradicionais. A avaliação da Internet como canal de compra é finalizada com a identificação dos atributos determinantes da compra pela rede.
Resumo:
Este estudo diz respeito ao acento do latim e do português arcaico. Interpretado o acento à luz da Fonologia Métrica, admitimos, seguindo Jacobs (1990, 1997), que o troqueu irregular caracteriza melhor o latim clássico do que o troqueu mórico. Depois de discutir o acento do latim clássico e dar especial atenção às enclíticas, que ampliam o domínio do acento e sobre as quais, com respeito a seu papel no acento, defendemos uma posição contrária à de análises mais recentes, citadas neste trabalho, passamos ao acento em latim vulgar e, após, ao acento em português arcaico. Nessa trajetória, observa-se a perda das proparoxítonas por síncope em latim vulgar e, subseqüentemente, a perda da vogal final por apócope em algumas palavras em português arcaico, resultando palavras terminadas em sílaba pesada. A simplicidade conduz a evolução do latim clássico ao vulgar, passando o sistema acentual do troqueu irregular ao troqueu silábico, mas, do latim vulgar ao português arcaico, há uma volta ao troqueu irregular, em virtude da ocorrência de palavras terminadas em sílaba pesada. Essas últimas linhas encerram a tese que esta análise sustenta.
Resumo:
O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .
Resumo:
O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.
Resumo:
O romance de formação é emblemático do Século das Luzes. Surgido na Europa do século XVIII, o subgênero teve seu apogeu neste e no século XIX, confundindo seu período de maturidade com boa parte da vida do romance moderno antes que o gênero começasse a ser desconstruído. Com o foco centrado no desenvolvimento da vida do protagonista e sua consciente adaptação ao mundo burguês, o Bildungsroman tomou formas semelhantes em vários países — inclusive na poderosa Inglaterra de então. Com seu legado de otimismo humanista, influencia (positiva ou negativamente) toda a literatura posterior. David Copperfield, de Charles Dickens, é um dos mais conhecidos clássicos romances de formação ingleses, surgindo como referência explícita no romance pós-Segunda Guerra Mundial O apanhador no campo de centeio, do norte-americano J.D. Salinger. Através da análise do desenvolvimento pessoal e da formação dos protagonistas desses dois romances buscaremos ver as mudanças sofridas, de meados do século XIX a meados do século XX, pelo processo de inserção do indivíduo na realidade coletiva. Deste modo pode-se lançar uma reflexão sobre de onde veio e como é o jeito de o ser humano ver a si mesmo como aprendiz.
Resumo:
Esta dissertação tem por objetivo analisar a estrutura poética e os recursos da obra de Manoel de Barros, poeta do Mato Grosso ainda pouco estudado no universo acadêmico e que tem recebido as mais efusivas recomendações mediante críticas em revistas e jornais brasileiros desde a década de 80. Analisamos quinze livros do autor – que serviram como principal fonte bibliográfica – em sete décadas dedicadas à literatura, a contar de sua estréia com Poemas concebidos sem pecado (1937) até Ensaios Fotográficos (2000). Pretendemos mostrar que o escritor inova ao infantilizar a forma poética, não se restringindo a somente tematizar a infância. Seus versos absorvem a percepção lúdica da criança com a linguagem, promovendo a constante ruptura com as regras gramaticais. Como também buscamos comprovar que a poesia de Manoel de Barros é feita sob a ótica do excesso, do acúmulo de imagens e metáforas, contrastando com o estilo de seu contemporâneo João Cabral de Melo Neto, caracterizado como a de uma poesia do essencial e do menos. Em nível metodológico, utilizamos como referência o livro João Cabral: A Poesia do Menos, ensaio de Antonio Carlos Secchin (de 1999), que interpreta o legado de João Cabral sob a ótica do desfalque, da redução da poesia a um dizer essencial, bem como estabelece a importância do sentimento de desconfiança em seu processo poético. Usamos tais reflexões para estabelecer comparações entre uma forma e outra de pensar a poesia, já que tanto João Cabral como Manoel de Barros estabeleceram propostas antagônicas de trabalho de uma forma simultânea, durante o mesmo período. Manoel de Barros propõe a teologia do traste e João Cabral, a psicologia da composição. Desejamos, ainda, apontar as influência do cinema e das artes plásticas, na figura da pop art, na elaboração dos livros do escritor mato-grossense.
Resumo:
Entre 1940 e 1943, na procura de uma imagem condizente com sua condição de Capital de Estado e tentando acompanhar as grandes transformações urbanas que ocorriam na época, Curitiba contrata o arquiteto e urbanista francês Donat-Alfred Agache (1875-1959), que recém executara o Plano do Rio de Janeiro (1927), para elaborar o Plano de Urbanização para Curitiba. Fato que acaba se tornando o primeiro grande impacto urbano-arquitetônico na sociedade paranaense do século XX. A presente dissertação contextualiza essa proposta urbanística, a partir da formação profissional de Agache na Europa, sua participação na Sociedade Francesa de Urbanistas, o modo didático de fazer urbanismo, sua experiência no Rio de Janeiro e demais trabalhos no Brasil. Além de um simples Plano de Urbanização para Curitiba, Agache demonstra técnica e habilidade em enfrentar problemas e hábitos sociais, características que impõem sua ampla visão de cidade. O processo desencadeado por Agache em 1943, comparado com a realidade urbana anterior, revoluciona a relação entre o homem e seu meio na forma de ver e fazer arquitetura urbana, acontecimento que deixa um legado cultural paradigmático, com inúmeros desdobramentos, fundamental para o urbanismo da Cidade de Curitiba.