19 resultados para Arquitetura de software
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
A Bacia de Almada, localizada no estado da Bahia, compartilha características similares com as outras bacias da margem leste do Brasil, quando é analisada segundo aspectos como os processos sedimentares e o regime de esforço dominante durante a sua formação. Observa-se uma diferença marcante em relação as outras bacias quando é analisada sob a ótica da composição da crosta transicional, uma vez que não se registra atividade vulcânica durante a fase rifte. A aquisição de um extenso levantamento sísmico 3D, com cabos de 6 km de comprimento e 9.2 segundos de tempo de registro (tempo sísmico duplo), resultaram em imagens sísmicas de boa qualidade das estruturas profundas do rifte. Adicionalmente, estudos de modelagem gravimétrica foram integrados com a análise sísmica para corroborar o modelo geológico. A Bacia de Almada é parte dos sistemas de rifte continentais, desenvolvidos durante o Berriasiano até o Aptiano, que antecederam a quebra do continente do Gondwana, evoluindo posteriormente para uma margem passiva divergente. O processo do rifteamento desenvolveu cinco sub-bacias de orientação NNE-SSO, desde posições terrestres até marinhas profundas, produzindo um arcabouço estrutural complexo. Os perfis da sísmica profunda mostram o afinamento progressivo da crosta continental até espessuras da ordem de 5 km, abaixo da sub-bacia mais oriental, com fatores de estiramento crustal próximo a 7 antes do desenvolvimento de crosta oceânica propriamente dita. As imagens sísmicas de boa qualidade permitem também o reconhecimento de sistemas de falhas lístricas que se iniciam na crosta superior, evoluem atravessando a crosta e conectando as sub-bacias para finalizar em um descolamento horizontal na crosta inferior estratificada. Adicionalmente, a bacia apresenta um perfil assimétrico, compatível com mecanismos de cisalhamento simples. As margens vulcânicas (VM) e não vulcânicas (NVM), são os extremos da análise composicional das margens divergentes continentais. Na Bacia de Almada não se reconhecem os elementos arquiteturais típicos das VM, tais como são as grandes províncias ígneas, caracterizadas por cunhas de refletores que mergulham em direção ao mar e por intenso vulcanismo pré- e sin-rifte nas bacias. Embora a margem divergente do Atlântico Sul seja interpretada tradicionalmente como vulcânica, o segmento do rifte ao sul do Estado da Bahia apresenta características não-vulcânicas, devido à ausência destes elementos arquiteturais e aos resultados obtidos nas perfurações geológicas que eventualmente alcançam a seqüência rifte e embasamento. Regionalmente a margem divergente sul-americana é majoritariamente vulcânica, embora a abundância e a influência do magmatísmo contemporâneo ao rifte seja muito variável. Ao longo da margem continental, desde a Bacia Austral no sul da Argentina, até a Bacia de Pernambuco no nordeste do Brasil, podem ser reconhecidos segmentos de caráter vulcânico forte, médio e não vulcânico. Nos exemplos clássicos de margens não vulcânicas, como a margem da Ibéria, a crosta transicional é altamente afinada podendo apresentar evidências de exumação de manto. Na Bacia de Almada, a crosta transicional apresenta importante estiramento embora não haja evidências concretas de exumação de manto. Os mecanismos responsáveis pela geração e intrusão dos grandes volumes de magma registrados nas margens divergentes são ainda sujeitos a intenso debate. Ao longo da margem divergente sul-americana há evidências da presença dos mecanismos genéticos de estiramento litosférico e impacto de plumas. Alternativamente estes dois mecanismos parecem ter tido um papel importante na evolução tectônica da margem sudeste e sul, diferenciando-as da margem continental onde foi implantada a Bacia de Almada.
Resumo:
Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).
Resumo:
Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.
Resumo:
A utilização de sistemas de informações geográficas via Web (Sigweb) tem crescido nos últimos anos pela facilidade na manipulação e visualização de informações de diferentes lugares através da Internet. O objetivo deste estudo é realizar testes de sistemas de informações geográficas na Internet com ênfase na técnica funcional para avaliar a funcionalidade, usabilidade, a navegabilidade dos programas conhecidos como Sigweb prontos para usar. Para tanto, foi necessária a identificação dos casos de uso dos programas propostos para o estudo. Como resultado se pode conferir o comportamento dos sistemas durante os testes, além de distinguir as características de cada SigWeb e as dificuldades encontradas.
Resumo:
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
A especificação dos requisitos de software pressupõe que se conheçam os requisitos do sistema do que será parte. Os requisitos do sistema, por sua vez, pressupõem o conhecimento do negócio (business) onde o sistema será utilizado. Para que estes conhecimentos sejam obtidos é importante o envolvimento dos stakeholders tanto no nível de sistema quanto no nível de negócio. As literaturas sobre Engenharia de Requisitos, Engenharia de Software e Engenharia de Sistemas concordam que o envolvimento dos stakeholders é fundamental. O tratamento dispensado ao assunto, no entanto, é pequeno, dada a importância do tema. Esta dissertação, utilizando conceitos da Engenharia de Métodos Situacionais e de Design Science, apresenta o ZEP Framework, um artefato, produzido com o software EPF Composer, que permite a criação de métodos para envolver o stakeholder. Estes métodos, para serem criados, devem levar em consideração as peculiaridades da organização, dos recursos disponíveis e do projeto em si. São apresentados, ainda, alguns cenários, na área de Turismo, como exemplos da utilização do framework.
Resumo:
A tecnologia da informação (TI) transformou o mundo nas últimas décadas e suas contribuições no processamento e disseminação da informação provocaram mudanças radicais no modo de viver das pessoas e afetou profundamente a gestão e a estrutura das organizações. Neste novo cenário, a literatura de negócios vem apresentando registros de desperdício de investimentos na área de tecnologia da informação. As dificuldades em reconhecer valor nos investimentos em TI e os desafios enfrentados na gestão de equipes de desenvolvimento de software são aspectos considerados no problema a ser pesquisado, a saber: a área de TI carece de sistemas de controle gerencial que poderiam minimizar riscos de desperdício de recursos, de baixa produtividade ou de fracasso na implantação do sistema a ser desenvolvido?O objetivo geral desta pesquisa é investigar as dificuldades enfrentadas pelas equipes de desenvolvimento de software para avaliar se há ou não desperdício de recursos, segundo a percepção dos entrevistados e, ainda, se há ou não carência de controle gerencial. Investigar quais poderiam ser os indicadores mais adequados para um sistema de controle gerencial voltados para esta área de atuação da TI e mapear fatores de sucesso estão entre os objetivos específicos da pesquisa. Do ponto de vista metodológico, esta é uma pesquisa exploratória que adota o procedimento de estudo de caso baseado em análise qualitativa. Os resultados alcançados confirmam o problema de desperdício de recursos e de baixa produtividade nas equipes de TI da empresa analisada e apontam para a carência de mecanismos ou processos de controle gerencial.
Resumo:
O presente estudo teve como objetivo central conhecer a composição florística, a estrutura e a arquitetura das espécies da formação arbustiva fechada pós-praia e investigar possíveis associações com Formicivora littoralis, considerando tática de forrageamento, construção de ninhos e abundância da ave. F. littoralis é endêmica de restingas, e está ameaçada de extinção devido a perda acelerada de habitat. Entretanto, pouco se sabe sobre a vegetação em que ela ocorre, principalmente sobre as áreas de maior abundância da ave localizadas na formação Arbustiva Fechada Pós-praia (AFP) da Restinga da Massambaba, as quais estão inseridas em um Centro de Diversidade Vegetal (CDV) na Região de Cabo Frio. Diante disto, este estudo foi realizado em dois trechos desta formação na Restinga da Massambaba, nos municípios de Araruama e Arraial do Cabo, RJ, Brasil. Foram efetuadas 60 excursões a campo, com coletas aleatórias realizadas ao longo de toda a formação, geração de 20 parcelas de 2x50 m (0,2ha) perpendiculares ao mar, incluindo na amostragem indivíduos com DAP e DAS ≥2,5, estes, foram ainda categorizados em modelos de arquitetura de ramificação considerando número de ramos em dois patamares de altura (DAP e DAS). O levantamento florístico resultou em 327 coletas de 160 espécies, sendo pelo menos 12 espécies vegetais sob algum estado de ameaça, inclusive redescoberta uma Salicaceae (Casearia sessiliflora). Orchidaceae, Leguminosae e Myrtaceae foram as famílias mais ricas. Foram acrescentados 75% mais espécies na lista preliminar da AFP na Massambaba, além de 14 novos registros para o CDV de Cabo Frio. Na estrutura e arquitetura foram analisados 906 indivíduos de 58 espécies. Sendo os maiores valores de importância de Pilosocereus arrabidae (42,30) e Chrysophyllum lucentifolium (23,45). A diversidade de Shannon foi de 3,46 e equabilidade de 0,85. A arquitetura da maior parte dos indivíduos foi complexa, 58% de indivíduos com múltiplas ramificações, e as espécies apresentando variados padrões de ramificação. A densidade populacional de F. littoralis na AFP foi elevada, sendo estimada em 172 ind/km2. A arquitetura da AFP tem influência na ecologia da ave, pois ela foi generalista quanto à espécie utilizada como suporte na construção de ninhos e também para as táticas de forrageamento, mas houve seleção de ramos finos que formavam na horizontal ângulos de até 90 de abertura para construir ninhos. Ramos finos e mais horizontais também foram utilizados com frequência para as táticas de forrageamento. A abundância de F. littoralis esteve correlacionada positivamente à diversidade vegetal e negativamente à altura da vegetação, características marcantes nesta formação. Além disso, elevada taxa de vegetais com síndrome de dispersão zoocórica indica a importância desta formação na oferta de recursos alimentícios para a fauna e atração de pequenos artrópodes, os quais fazem parte da dieta de F. littoralis.
Resumo:
O contexto da era da informação exige novas habilidades para competir com sucesso, tanto para empresas industriais como para as de serviços. Desde o seu surgimento, a Engenharia de Software tem enfrentado o desafio em estimar, controlar e gerenciar custos no processo de desenvolvimento de software. Os custos são parte de um projeto de software e nem sempre são claramente mensurados. Algumas desenvolvedoras de software são caracterizadas como prestadoras de serviços e as organizações que prestam serviços possuem as mesmas dificuldades em termos gerenciais que as indústrias, elas precisam de sistemas de gestão adequados para gerir seus custos, logo seus recursos. Nesse contexto é que os sistemas de informações contábeis estão inseridos, fornecendo respostas que os gestores necessitam para tomar decisões. Os custos são exemplos desse tipo de informação, pois o seu conhecimento é indispensável para uma boa gerência dos recursos organizacionais. O Custeio Baseado em Atividades (ABC) é uma ferramenta contábil útil para o gerenciamento estratégico dos custos uma vez que os sistemas de custeio tradicionais já não atendem essa necessidade das organizações. Diante desse cenário, o objetivo geral dessa dissertação é aplicar a metodologia de custeio baseado em atividades em um projeto de desenvolvimento de software com a finalidade de gestão de custos. Este pesquisa caracteriza-se como qualitativa descritiva e faz uso do método do estudo de caso. Através desse estudo foi possível comprovar a utilidade do ABC como instrumento de auxílio na gestão de custos nas organizações que prestam serviços em desenvolvimento de software, pois possibilita a visualização da maneira que os recursos são consumidos pelas atividades que agregam e não agregam valor ao negócio e ao cliente.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
O conhecimento do tema da interação solo-estrutura permite que as edificações sejam projetadas de maneira mais realista com o comportamento físico. Há décadas atrás seria inviável um dimensionamento considerando a deformabilidade do solo de fundação, e as estruturas eram dimensionadas adotando-se as fundações como indeslocáveis, sob uma base rígida. Essa consideração conduz a respostas estruturais inadequadas, por vezes comprometendo a segurança e a estabilidade do conjunto estrutural. Atualmente, o avanço tecnológico permite a obtenção de resultados de milhões de cálculos matemáticos em questões de segundos, podendo-se obter soluções mais arrojadas e dinâmicas, facilitando o dimensionamento estrutural de forma a atender ao novo padrão de construção e arquitetura. A relevância de tal assunto motivou a análise numérica de um edifício de 4 pavimentos de estrutura mista (aço-concreto), considerando o efeito da interação solo-estrutura. As análises foram conduzidas com o programa ANSYS, de elementos finitos, substituindo-se os apoios indeslocáveis por molas discretas, lineares e elásticas, com rigidez equivalente ao solo, conforme hipótese de Winkler. Os parâmetros dos solos de fundação foram adquiridos a partir de correlações empíricas existentes na literatura e da utilização do programa computacional PLAXIS para a determinação das constantes elásticas das molas. Neste trabalho, foram comparados os resultados de reações verticais, esforços normais, momentos fletores e deslocamentos da estrutura obtidos pelo modelo clássico de projeto, que considera apoios indeslocáveis, e pelo modelo de Winkler, que considera a interação solo-estrutura. As análises foram executadas para seis diferentes tipos de solos argilosos, siltosos e arenosos. Os resultados obtidos mostraram claramente a redistribuição dos momentos fletores, esforços normais e reações verticais nos pilares com diferenças significativas para os pilares de canto e periféricos. Observou-se uma tendência de alívio dos esforços nos pilares mais solicitados, adotando a estrutura assentada em uma base rígida. As análises ressaltaram a relevância da interação solo-estrutura, com efeitos provenientes do rearranjo do solo de fundação nos elementos estruturais das edificações.
Resumo:
Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.