193 resultados para Arquitetura paisagística
Resumo:
Este trabalho verifica a viabilidade da utilização de ferramentas de apoio à decisão no âmbito das dimensões tecnológica e ambiental como mecanismo de geração de conhecimento para o arquiteto durante a fase de projeto. A verificação é apresentada através da criação de um modelo de apoio à decisão, vinculado a aspectos tecnológicos e ambientais, para a escolha de uma cobertura de um edifício industrial. Os critérios de avaliação utilizados no desenvolvimento do modelo são oriundos da norma ISO DP 6241. Buscando resgatar a importância da tecnologia na projetualidade da arquitetura em geral, num primeiro momento é analisado o papel da dimensão tecnológica a partir do entendimento dos últimos 200 anos da produção arquitetônica mundial. Posteriormente, é apresentada a contribuição da tipologia edifício industrial como também do elemento de arquitetura cobertura na projetualidade em geral, através da análise da produção mundial no referido período. Essas análises permitem a geração de uma nova classificação da presença da tecnologia em edificações a partir do entendimento do grau de intensidade da valorização dessa dimensão Essa verificação histórica permitiu, também, caracterizar uma estreita relação entre o edifício industrial, a tecnologia e a cobertura, a qual é determinada pela incorporação das conquistas tecnológicas nos edifícios de produção ao longo da história, como também é marcada pela importância do elemento de arquitetura cobertura no ecletismo tecnicista da produção da arquitetura do ferro da segunda metade do século XIX. A partir da análise histórica e da definição das variáveis importantes para a escolha de uma cobertura industrial, é criado e testado o modelo através do desenvolvimento de um estudo de caso de um edifício industrial em Passo Fundo, RS. Através desse estudo, é possível verificar a viabilidade da utilização de uma ferramenta de apoio à decisão como dispositivo de geração de conhecimento durante a fase de desenvolvimento do projeto.
Resumo:
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.
Resumo:
A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.
Resumo:
Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.
Resumo:
Este estudo apresenta uma proposta para a padronização das dimensões de unidades de alvenaria estrutural no Brasil. Para isso, primeiramente são discutidos os benefícios da aplicação da teoria da coordenação modular na alvenaria estrutural, através da relação da coordenação modular com a arquitetura e da síntese dos seus princípios fundamentais. Tendo sempre o foco na padronização do componente modular e no seu uso em projetos coordenados modularmente. Em seguida, é apresentada a situação da alvenaria estrutural no Brasil e na Alemanha, observando principalmente o uso da coordenação modular, as características das unidades, do projeto e da execução nesse processo construtivo. Destacamse os problemas enfrentados no Brasil, onde adaptações do projeto arquitetônico de edifícios em concreto armado para projetos em alvenaria estrutural aumentam os custos e problemas no processo construtivo. A principal razão para isto é que as unidades de alvenaria não são coordenadas modularmente e necessitam rigorosa padronização. Assim, finalmente, a partir dos aspectos condicionantes para as dimensões das unidades de alvenaria estrutural é possível alcançar o objetivo central deste trabalho que é a sugestão à indústria brasileira de uma série de medidas preferidas para a padronização das dimensões de unidades de alvenaria estrutural no Brasil, apresentando os possíveis arranjos de paredes e elaborando um projeto piloto coordenado modularmente, sem que haja a restrição da liberdade criativa dos arquitetos.
Resumo:
Este texto apresenta a tese de doutorado em Ciência da Computação na linha de pesquisa de Inteligência Artificial, dentro da área de IAD – Inteligência Artificial Distribuída (mais especificamente os Sistemas Multiagentes – SMA). O trabalho aborda a formação de grupos colaborativos em um ambiente multiagente interativo de aprendizagem na web, através da utilização de técnicas de Inteligência Artificial. O trabalho apresenta a definição e implementação de uma arquitetura de agentes modelados com algoritmos genéticos, integrada a um ambiente colaborativo de aprendizagem, o TelEduc. Inicialmente faz-se um breve estudo sobre as áreas envolvidas na tese: Informática na Educação, Educação a Distância, Inteligência Artificial, Inteligência Artificial Distribuída e Inteligência Artificial Aplicada à Educação. Abordam-se, também, as áreas de pesquisa que abrangem os Sistemas Multiagentes e os Algoritmos Genéticos. Após este estudo, apresenta-se um estudo comparativo entre ambientes de ensino e aprendizagem que utilizam a abordagem de agentes e a arquitetura proposta neste trabalho. Apresenta-se, também, a arquitetura de agentes proposta, integrada ao ambiente TelEduc, descrevendo-se o funcionamento de cada um dos agentes e a plataforma de desenvolvimento. Finalizando o trabalho, apresenta-se o foco principal do mesmo, a formação de grupos colaborativos, através da implementação e validação do agente forma grupo colaborativo. Este agente, implementado através de um algoritmo genético, permite a formação de grupos colaborativos seguindo os critérios estabelecidos pelo professor. A validação do trabalho foi realizada através de um estudo de caso, utilizando o agente implementado na formação de grupos colaborativos em quatro turmas de cursos superiores de Informática, na Região Metropolitana de Porto Alegre, em disciplinas que envolvem o ensino de programação de computadores.
Resumo:
A presente dissertação versa sobre as relações entre o movimento formado por sete arquitetos milaneses, em 1926, o Gruppo 7, que viria a ser conhecido como “Racionalismo italiano”, e o regime político sob o qual ele floresceu, o Fascismo de Benito Mussolini (1922-1942), na Itália. A questão central é a aparente contradição em que um movimento modernista de vanguarda teria surgido e se desenvolvido sob a égide de um regime considerado retrógrado, conservador e antimodernista; esse caso foi uma exceção na história do modernismo em Arquitetura, uma vez que em outros países europeus, nos quais regimes totalitários análogos foram instituídos, os movimentos modernistas foram sufocados. A partir da análise das idiossincrasias do caso, bem como de aportes recentes de estudos sociológicos sobre o Fascismo, conclui-se que tal contradição pode ser dissipada, uma vez que ambos os movimentos, tanto o Racionalismo italiano como o Fascismo apresentavam características convergentes. As principais foram o sincretismo e a crença no mito de palingenesia, que possibilitaram uma espécie de convivência frutuosa.
Resumo:
A ascensão da sociedade industrial ocasionou a explosão demográfica das cidades, instaurando na urbe problemas de moradia, circulação, de segurança entre outros. O movimento modernista em arquitetura procurou responder às novas demandas com a concepção de uma cidade racionalizada, tal qual o novo modo de produção. Esta cidade seria setorizada por funções, a fim de evitar a segregação eminente. Porém, a aplicação deste modelo não respondeu de maneira efetiva os problemas cada vez maiores, e, a partir da metade do Século XX surgem em diversos países teorias que buscavam na cidade pré-industrial a viabilidade para a nova era. Teorias desenvolvidas na Europa defendiam a criação de uma cidade plurifuncional, onde os espaços se direcionariam a diversas funções e público a fim de garantir a vitalidade urbana. Na América do Norte estas premissas também são defendidas, porém sempre utilizando o espaço polivalente como mecanismo de promoção urbana. Logo, na contemporaneidade verifica-se o surgimento de duas forças opostas que interferem no espaço urbano: a primeira, a grande força do capital privado que busca intensificar seus lucros mesmo utilizando-se de “discursos sociais”, e a outra é definida pela força da sociedade como um todo, que busca no desenvolvimento sustentável, um meio de garantir a qualidade de vida não só para os dias atuais, mas também para as gerações futuras. Curitiba passa por todas estas interferências ao longo de sua urbanização, desde a racionalização modernista na concepção para o primeiro plano global para a cidade - o Plano Agache, passando por influências historicistas onde é aplicada a requalificação dos espaços urbanos no centro da cidade, e culminando na última década com políticas voltadas para o desenvolvimento sustentável, buscado em parte pela descentralização urbana. Esta, já se encontrava em processo de implantação com a criação dos eixos estruturais na segunda metade do Século XX, sendo consolidada com a criação de centros de bairro chamados Ruas da Cidadania na periferia da cidade. Na realidade, na década de 90, Curitiba sofreu a ação de uma intensa industrialização que ocasionou o rápido adensamento do meio construído e com a multiplicação de funções por ela abrigada. Decorrentes disso os fluxos urbanos se tornaram mais confusos, insuficientes para atender às novas necessidades da população. Face todas estas circunstâncias, originárias a partir do processo de industrialização, a urbanização em Curitiba foi sendo guiada por meio de um processo que visava a descentralização tanto política como de serviços. Os novos centros de bairro foram criados dentro de uma política pautada nos novos modelos de gestão urbana, que defendem valores como direito à cidadania e a democratização dos espaços públicos, tendo como principal função a descentralização políticoadministrativa da cidade. As Ruas da Cidadania, objeto deste estudo, são o resultado de uma seqüência de ações do Poder Público Municipal para tentar, na medida do possível, abrandar os efeitos negativos do inchaço populacional nas periferias de Curitiba, procurando ainda proporcionar a melhor integração da comunidade, uma vez que também se caracterizam por ser um espaço de reivindicações e de debates sobre o território.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
Resumo:
Este trabalho analisa a atividade turística na Área Antártica Especialmente Gerenciada baía do Almirantado (AAEG), ilha Rei George, arquipélago Shetlands do Sul, através de levantamento realizado com turistas, guias e pessoal das estações científicas. A dissertação revisa o turismo no Ártico e na Antártica e, apesar das diferenças geográficas, a preocupação com a regulamentação, a proteção ambiental e o gerenciamento do espaço transnacional são preocupações presentes nas duas regiões. Os dados foram coletados por entrevistas e questionários. Aplicaram-se 144 questionários aos visitantes da estação polonesa Henryck Arctowski (62°10’S, 58°28’W) na temporada 2003/2004, a qual recebeu todos os turistas que entraram na AAEG naquele verão. Doze guias foram entrevistados e o pessoal da estação polonesa e da Estação Antártica Comandante Ferraz (Brasil, 62°05’S, 58°24’W) responderam 9 e 26 questionários, respectivamente. Desse levantamento foi possível obter o perfil, as expectativas e motivações do turista antártico. Nas entrevistas com guias observou-se que há preocupação com o rápido crescimento do turismo a partir da década de 1990. Além disso, as respostas do pessoal das duas estações demonstram que nem sempre as visitas são bem vindas, já que elas modificam a rotina e o trabalho dos pesquisadores. A AAEG, por estar na rota dos navios que deixam os portos do sul da América do Sul, principal ponto de partida para os que desejam visitar o continente, por ser de fácil acesso, por permitir ancoragens seguras e pela beleza paisagística, recebe aproximadamente 90% dos turistas antárticos. O levantamento revelou o predomínio de cidadãos norte americanos e alemães, entre esses um grande número de aposentados. A vida selvagem é a principal motivação para visitar a Antártica, revelando expectativas e motivações semelhantes a outros estudos já realizados no próprio continente e no arquipélago de Svalbard no Ártico. Os possíveis impactos da atividade turística que mais preocupam os especialistas são a ameaça à vida selvagem e os distúrbios causados às atividades dos pesquisadores nas estações científicas. A preocupação com o crescente número de turistas nessa que é uma das áreas mais remotas do planeta, aponta para a necessidade de aplicação de metodologias avaliadoras de impacto e de restrição ao turismo como a Limits of Acceptable Change (LAC), empregada juntamente com Recreational Opportunity Spectrum (ROS), já há muito tempo utilizada em parques nacionais dos EUA e Austrália.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.
Resumo:
As pesquisas sobre governança no sistema financeiro contribuem significativamente para a análise dos diversos elementos que influenciam a performance nesse setor. No entanto, estudos empíricos nessa área ainda são limitados. Um dos motivos é a complexidade inerente à noção de governança na área pública. Da mesma forma que os sistemas complexos, a governança pode ser descrita como um sistema que abrange um grande número de entidades interdependentes entre si, com diferentes graus de relacionamentos. Neste trabalho de pesquisa, o significado de governança regulamentar do SFN se insere nesse escopo de entendimento, isto é, a governança como um fenômeno que resulta das diversas interações existentes entre os atores que influenciam ou são influenciados pelas atividades de regulação do setor financeiro. Em função das especificidades dos sistemas complexos, desenvolve-se e implementa-se um modelo baseado em agentes para a análise da governança regulamentar do SFN mediante experimentos de simulação. Os modelos baseados em agentes possibilitam explicitar aspectos relativos às interações e comportamentos dos agentes (nível micro), ou seja, os comportamentos não-lineares do sistema, que são difíceis de serem capturados com outros formalismos matemáticos. O modelo baseado em agentes é integrado a um modelo econométrico que tem como função caracterizar o ambiente macro-econômico. O ambiente micro é modelado por intermédio de agentes computacionais, com o uso da arquitetura BDI (do inglês, beliefs-desires-intentions). Esses agentes interagem entre si e com o ambiente, possuem crenças sobre o meio onde atuam e desejos que querem satisfazer, levando-os a formar intenções para agir. O comportamento dos agentes foi modelado utilizando-se lógica difusa (fuzzy logic), com o uso de regras construídas por intermédio de pesquisa de análise de conteúdo, a partir de informações coletadas em notícias de jornais, e entrevistas semiestruturadas com especialistasda área financeira. Os resultados dos experimentos demonstram o potencial da simulação dos modelos baseados em agentes para a realização de estudos de ambientes complexos de governança regulamentar.