74 resultados para Metodologias de valoração
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
A Indústria Mecânica, especificamente aquelas relacionadas à manufatura de motoserras, apresenta problemas relativos à alta repetitividade e a necessidade de força no desempenho de suas tarefas, com impacto direto nos sistemas músculo-esqueléticos. Estas tarefas possuem altos riscos ergonômicos associados ao sistema músculo-esquelético e sua fadiga a movimentos repetitivos. Estas tarefas são em sua maioria geradores potenciais de desordens por traumas cumulativos, independentes do desenho de seus postos de trabalho e como são estes criados. Quanto a o uso de medidas de engenharia, estas não são práticas em um ponto de vista ergonômico ou econômico, devido às características das tarefas, como no caso em estudo no qual, o uso de medidas administrativas, como a rotação de trabalho, pode ser a solução mais rápida e imperativa para obter um melhor conforto Ergonômico. Estas apresentam a vantagem de serem independentes para algumas condições, entre elas o numero de estações de trabalho (postos), as mudanças de processos, os novos produtos que possam implicar mudanças de tecnologias e outras que não mudem ou modifiquem a natureza das tarefas. Estas vantagens fazem do programa de Rotação de trabalho uma medida administrativa robusta. A priorização deste estudo aconteceu pela falta de metodologias que viessem facilitar a implementação de um programa de rotação de trabalho como uma medida administrativa a fim de reduzir riscos ergonômicos. Este estudo desenvolveu uma metodologia para a implementação de uma Rotação de trabalho Ergonômica em um setor de uma indústria Mecânica. Para este objetivo foi necessário identificar as áreas de maiores riscos ergonômicos associados aos os postos de trabalho na Célula de Cromagem. Dados foram coletados através de questionários, Checklist e vídeos, com o objetivo de obter-se uma possível rotação de trabalho dentro de um ponto de vista ergonômico. Para isto, uma análise foi desenvolvida a fim de resultar em uma matriz de postos classificados por prioridades, levando-se em consideração cada posto de trabalho e suas características. Para este propósito, um modelo integrado foi desenvolvido com o objetivo de estabelecer uma ótima ordem para executar a rotação de trabalho, avaliada na certificação das necessidades ergonômicas. Finalmente, uma metodologia de fácil aplicação e condução revela que a implementação de uma rotação de trabalho ergonômico, que leva em consideração os riscos ergonômicos e suas prevenções de DORT, tem um alto impacto no nível de qualidade de vida das linhas de produção.
Resumo:
Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
As constantes mudanças no ambiente exigem das empresas uma capacidade de adaptação para a sobrevivência, aliada à necessidade de expandir a capacidade criativa. Desta forma, existe a necessidade de identificar como as organizações aprendem e como é possível oportunizar essa aprendizagem. A presente dissertação tem por objetivo identificar e analisar se e como ocorrem os processos de Aprendizagem Organizacional no âmbito de programas de qualidade premiados pelo Programa Gaúcho de Qualidade e Produtividade (PGQP). Os elementos referenciais de Aprendizagem Organizacional (AO) identificados na literatura associados com o atendimento aos critérios exigidos pelo PGQP, permitiram esta análise. Foi realizada uma pesquisa em duas empresas que receberam o Troféu Prata nesse programa. A pesquisa caracterizou-se como um estudo de caso múltiplo, envolvendo na coleta de dados entrevistas e os relatórios do PGQP de 1999 até 2002. Foram realizadas entrevistas semiestruturadas com vinte e oito executivos das diversas áreas, coordenadores da qualidade e analistas envolvidos nos principais processos da empresa. O resultado dos levantamentos efetuados e a identificação de ocorrência de Aprendizagem Organizacional envolvem os critérios: liderança, planejamento estratégico, foco no cliente e no mercado, informação e análise, gestão de pessoas, gestão de processos, e resultados da organização. Constatou-se que existem diferentes processos de AO nas empresas que possuem programas de qualidade. Identificou-se que é fator relevante para a ocorrência de que as metodologias aplicadas provoquem o questionamento dos insights e que sejam sistemáticas e entendidas por toda a organização. Na maioria dos temas avaliados nos critérios do PGQP, o processo de aprendizagem pressupõe tempo para que seus resultados sejam identificados. As empresas que incentivam a troca de conhecimento e possuem pessoal qualificado tendem a assumir características de aprendizagem organizacional com maior facilidade. Assim, esse estudo contribui para a busca da eficácia no s processos de mudança das empresas, no caso, os programas de qualidade.
Resumo:
Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
Com a proliferação de computadores pessoais e a popularização da Internet, as novas tecnologias da comunicação começam a provocar impactos no setor educacional, com a promessa de construção de cenários inovadores, apoiados em diferentes formas de educação baseada na Web. Estas inovações tecnológicas aplicadas ao ensino caracterizam a intensificação dos processos de educação à distância como uma das tendências mais marcantes desse final de milênio. A tendência destas inovações é crescer e juntamente com a Internet contribuir para a melhoria do ensino e/ou aprendizagem a distância. A Educação à Distância (EAD) tem sido um termo usado para qualquer forma de estudo em que os alunos não estejam em contato direto com seu professor. Este tipo de ensino pode ser considerado como uma alternativa educacional capaz de propiciar a ampliação de oportunidades educativas, através de programas de qualidade. Atualmente, para desenvolver ambientes para o ensino a distância são utilizados os conceitos de Inteligência Artificial Distribuída, mais precisamente o conceito de sistemas multiagentes, com a finalidade de aprimorar e monitorar o ensino através da Internet. O sistema AME-A proposto por D’Amico é um exemplo de ambiente que utiliza a tecnologia de multiagentes. Ele é constituído de vários agentes inteligentes que atuam de forma concorrente e comunicam-se através de mensagens. Dessa maneira, transformam o sistema em um conjunto de agentes cooperantes em busca de um objetivo que é o de ensinar e/ou aprender. Este trabalho tem como objetivo utilizar o estudo e a abordagem de modelagem do sistema de ensino/aprendizagem definido por D’Amico no que se refere ao agente ferramentas para o professor. Propõe-se a desenvolver uma ferramenta que irá auxiliar o professor na distribuição de seus conhecimentos na Internet, armazenando as informações inseridas pelo professor bem como fornecer orientações a respeito de determinadas operações que o sistema realiza. Estas orientações também apresentam como foco os seguintes fatores: descrição da importância da motivação e interatividade num curso a distância, sugestões de metodologias de ensino que o professor pode usar nas suas aulas, orientações a respeito de avaliação do aprendizado do aluno, dicas sobre conteúdos de materiais complementares às aulas e por fim, menciona exemplos de ferramentas em modo texto e multimídia que podem ser utilizadas para comunicação.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
Dada a escassez de informação (principalmente de vazão) nas sub-bacias urbanas, os parâmetros das metodologias usadas no dimensionamento de uma rede de macrodrenagem são estimados a partir de características físicas, introduzindo incertezas sobre os valores corretos do parâmetro. Neste trabalho são apresentados resultados que indicam o impacto que as incertezas nos parâmetros têm sobre os valores da vazão e custo da rede, e custo estimado para redução das mesmas. Foram analisados os parâmetros das metodologias dos blocos alternados utilizada na determinação da chuva de projeto; da “Curva Número” do SCS utilizada para determinação da precipitação efetiva; e de Clark e Hidrograma Unitário Triangular (SCS) empregadas para a propagação de vazão. Também foi analisado o efeito da variabilidade espacial da chuva. Da análise de sensibilidade dos parâmetros determinou-se que para simulação distribuída da bacia, o CN resultou o parâmetro mais sensível. Por exemplo, para um incremento de uma unidade no CN foram encontradas variações de entre 8 e 10% na vazão, o que representa um incremento de 5% no custo. Também foram significativas as diferenças na chuva de projeto obtidas a partir de diferentes IDFs de postos pluviométricos próximos (diferenças de até 80% na vazão ou seja 40% no custo. Mudanças no valor do tempo de concentração somente tiveram efeito significativo na simulação concentrada da bacia; já variações do parâmetro de forma no HTA do método de Clark não tiveram efeitos sobre a vazão ou custo. Por outro lado, os custos de medição de chuva e vazão, necessários para geração da informação que permitiria reduzir a incerteza resultam menores ao impacto produzido por um erro 1% no CN, ressaltando a importância de efetuar coleta contínua de dados de vazão.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
Este trabalho apresenta o estudo da obtenção de alumina (óxido de alumínio – Al2O3) pelo método sol-gel coloidal e a caracterização da morfologia dos produtos obtidos, associando-a a parâmetros processuais como pH, tipo de solvente empregado e condições de secagem. Utilizou-se como precursor cloreto de alumínio hexahidratado que, após reações de pectização, levou à formação de um gel viscoso com características amorfas. Este gel, após calcinação, deu origem a diferentes fases de alumina e, apresentou diferentes morfologias: pós, fibras ou corpos cerâmicos porosos, que variaram de acordo com os parâmetros processuais adotados. A fim de se avaliar o comportamento do gel frente às diferentes condições de pH, variou-se o pH do sistema utilizando-se ácido acético glacial para ajustes de pH na faixa ácida e, para o ajuste de pH na faixa básica, uma solução aquosa 30% de amônio. Ambos foram escolhidos para o ajuste de pH por não interferirem no processo de síntese da alumina e, por serem facilmente eliminados com tratamentos térmicos. Na etapa de pectização do gel, foram adicionados diferentes solventes, água, álcool ou uma mistura 1:1 de ambos, a fim de se avaliar a sua influência sob o tempo de secagem e distribuição de tamanho de partículas. O gel foi então seco de acordo com as seguintes metodologias de secagem: secagem do gel em estufa a 110°C por 12 horas, secagem do gel em ambiente aberto, com temperatura variando entre 25 e 30°C, pré-evaporação do solvente sob aquecimento (70 a 80°C) e agitação. Os produtos obtidos seguindo esta metodologia foram caracterizados quanto à distribuição granulométrica, análises térmicas (TGA e DTA), difração de raios X, área superficial, densidade real e morfologia (usando microscopia ótica e de varredura).
Resumo:
As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.