98 resultados para Plataformas de visualização
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.
Resumo:
o presente trabalho apresenta dados referentes a um levantamento dos níveis de pressão sonora equivalente (Leq),para as 24 horas de um dia típico de semana, em diversos pontos da cidade de Porto Alegre, no Rio Grande do Sul. As informações são processadas através de diferentes análises estatísticas, comparadas com dados de trabalhos anteriores e com resultados de equações de predição de ruído urbano. A metodologia adotada é semelhante à utilizada por García & Faus (1991), em trabalho realizado em cidades da Espanha. O levantamento dos dados de ruído urbano, em período de 24 horas, permite um maior nível de detalhes para a geração de modelos de predição de níveis de pressão sonora e auxilia na visualização da curva de padrões de ruídos horários, para um determinado espaço urbano. Quatorze pontos da cidade foram monitorados, em áreas com características diferenciadas (densidade, população, fluxo de veículos), o que possibilitou verificar os diferentes padrões de ruído associados para cada situação.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Este trabalho aborda o tema da geração de sistemas supervisórios a partir de modelos orientados a objetos. A motivação para realização do trabalho surgiu com o estudo de sistemas supervisórios e de ferramentas de suporte à modelagem de sistemas usando orientação a objetos. Notou-se que nos primeiros, apesar de possuírem como principal objetivo a visualização de estados e grandezas físicas relacionadas a componentes de plantas industriais (nível de um tanque, temperatura de um gás, por exemplo), os modelos computacionais utilizados baseiam-se em estruturas de dados não hierárquicas, nas quais variáveis de contexto global e não encapsuladas, as chamadas “tags”, são associadas às grandezas físicas a serem visualizadas. Modelos orientados a objeto, por outro lado, constituem uma excelente proposta para a criação de modelos computacionais nos quais a estrutura e semântica dos elementos de modelagem é bastante próxima a de sistemas físicos reais, facilitando a construção e compreensão dos modelos. Assim sendo, a proposta desenvolvida neste trabalho busca agregar as vantagens do uso de orientação a objetos, com conceitos existentes em sistemas supervisórios, a fim de obter-se ferramentas que melhor auxiliem o desenvolvimento de aplicações complexas. Classes e suas instâncias são usadas para modelagem de componentes da planta industrial a ser analisada. Seus atributos e estados são associados às grandezas físicas a serem visualizadas. Diferentes formas de visualização são associadas às classes, aumentando assim o reuso e facilitando o desenvolvimento de sistemas supervisórios de aplicações complexas. A proposta conceitual desenvolvida foi implementada experimentalmente como uma extensão à ferramenta SIMOO-RT, tendo sido denominada de “Supervisory Designer”. A ferramenta desenvolvida estende o modelo de objetos e classes de SIMOO-RT, permitindo a adição de informações específicas para supervisão – tais como as definições de limites para os atributos. A ferramenta foi validada através do desenvolvimento de estudos de casos de aplicações industriais reais, tendo demonstrado diversas vantagens quando comparada com o uso de ferramentas para construção de sistemas supervisórios disponíveis comercialmente).
Resumo:
Muitos estudos sobre a postura corporal têm sido feitos em diferentes faixas etárias, buscando verificar a influência de diferentes fatores sobre o posicionamento dos segmentos corporais na manutenção da postura em pé (Zatsiorsky e Duarte, 1999; Fialho e cols., 2001; Lima e cols., 2001; Mochizuki e cols., 2001; Wiczorek e cols., 2001). Nessas investigações os indivíduos são avaliados principalmente com pés descalços. Entretanto, sobre o uso do calçado, acessório indispensável ao ser humano na execução da maioria das atividades de vida diária, há poucas investigações. Diante disso, o objetivo deste estudo foi verificar se há influências de seis modelos de calçado com diferentes altura de salto (-0,9cm, 0,7cm, 5,0cm, 5,6cm, 7,5cm e 9,0cm) sobre os percentuais da força peso aplicados na base de sustentação e a postura corporal em pé de mulheres voluntárias que não apresentavam lesões músculo–esqueléticas. A amostra foi composta por 11 indivíduos, com idade, altura e massa médios, respectivamente, de 23 (± 2,24) anos, 159,67 (± 3,14) cm e 52,42 (±4,37) Kg. Para analisar a influência dos seis modelos de calçado sobre os percentuais da força peso aplicados na base de sustentação, quantificou-se a componente vertical (Fz) da força de reação do solo (FRS) através de duas plataformas de força (AMTI); para a análise da postura em pé realizou-se um estudo cinemático (Sistema Peak Motus 32), com reconstrução tridimensional das variáveis espaciais Os calçados usados no estudo apresentavam três categorias de salto definidas de acordo com a altura do salto de cada modelo (calçado com salto negativo, sem salto e com salto positivo). Utilizou-se o teste ANOVA One Way para a análise estatística dos dados (p<0,05). Os resultados indicam diferenças estatisticamente significativas nos percentuais da Fz aplicados no retropé e no antepé dos avaliados durante a postura em pé com o uso de dois calçados com salto positivo de 5,6cm e de 9,0cm. Tais resultados demonstraram que houve uma diminuição do percentual da Fz aplicado no retropé e um aumento no antepé. No entanto, os percentuais aplicados sobre o antepé direito e esquerdo não foram maiores que 27% do peso corporal, em cada um dos pés, e não aumentaram proporcionalmente à altura do salto. Em relação à postura corporal em pé, o uso dos seis modelos de calçado não influenciou o posicionamento das curvaturas da coluna vertebral, da pelve (lado esquerdo), do quadril (lado direito) e do joelho dos sujeitos avaliados em curto período de tempo (aproximadamente 60 segundos). Todavia, encontraram-se resultados estatísticos significativos para o posicionamento da pelve (lado direito) com o uso do calçado de salto negativo (-0,9cm), no quadril (lado esquerdo) com o calçado de salto positivo de 7,5cm, e no tornozelo com o uso de três calçados com salto positivo (5,6cm, 7,5cm, 9cm). Não se observou um aumento da lordose lombar, nem da inclinação pélvica com o uso dos calçados com salto positivo, contrariando, assim, as idéias disseminadas a partir de observações clínicas que associam o uso de calçado com salto alto ao aumento da lordose lombar e ao posicionamento da pelve em anteversão. Ressalta-se que esses resultados foram encontrados para uma amostra jovem que não apresentava limitações na amplitude de movimento (ADM) do tornozelo.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
Planejamento estratégico de sistemas de informação é atualmente um desafio gerencial crítico. Novas abordagem para o desenvolvimento de planejamento de sistemas de informação podem auxiliar os gerentes a vencer este desafio. As teorias de aprendizagem organizacional e de processo decisório podem oferecer uma abordagem que contribua neste sentido. O objetivo deste estudo é o de conceber e desenvolver um modelo de planejamento estratégico de sistemas de informação tendo por base a análise das contribuições da aprendizagem organizacional e do processo decisório. Esta pesquisa caracteriza-se como um estudo predominantemente exploratório, sendo que o principal método de pesquisa utilizado é o de estudo de caso. Os principais resultados obtidos envolvem a análise dos princípios da aprendizagem organizacional e do processo decisório aplicados na prática em um processo de planejamento estratégico de sistemas de informação, o desenvolvimento de um modelo explicativo do relacionamento entre as abordagens prescritivas e descritivas, o modelo proposto e a especificação de uma ferramenta CASE (Sistema CASIS) para apoiar a operacionalização do modelo proposto. Ao atingir satisfatoriamente os objetivos propostos, os resultados contribuem com o desenvolvimento teórico da área de sistemas de informação e também com os gerentes e profissionais da área, provendo conhecimento para auxiliá- los a lidar com os principais problemas do processo de planejamento de sistemas de informação, mediante uma visualização diferente do processo de planejamento, em uma linha descritiva.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.
Resumo:
Esta dissertação aborda os processos de significação em estados ampliados de consciência desde de uma perspectiva transdisciplinar holística em um estudo de caso com crianças de uma escola pública de Porto Alegre, no Rio Grande do Sul. O trabalho tem como referência teórica principal a psicologia transpessoal e as experiências em estados ampliados de consciência que possibilitam a vivência transpessoal. Considera o ser humano como multidimensional cuja consciência se expressa através de quatro funções: pensamento, sentimento, sensação e intuição. Para a ampliação da consciência foram utilizados métodos reconhecidos pela psicologia transpessoal, no caso, a meditação, o relaxamento, a visualização dirigida e o desenho de mandalas. As mandalas foram a linguagem escolhida para a expressão das significações produzidas durante os estados ampliados de consciência. O método fenomenológico utilizado permitiu revelar que símbolos do inconsciente coletivo emergem para a consciência durante vivências em estados ampliados de consciência. A partir da interpretação reiteramos o entendimento de que existe dentro de cada ser humano uma fonte de sabedoria que está para além dos limites da personalidade, o que corresponde às pesquisas de outros exploradores da consciência humana (Wilber, Grof, Weil). Concluímos o trabalho apresentando o Projeto da Educação da Consciência, o qual se constitui numa proposta de educação da consciência humana em sua multidimensionalidade para a plena manifestação do ser.
Resumo:
Esta dissertação aborda, através de um Estudo de Caso, a problemática da implantação e monitoramento de estratégias em organizações do tipo “sem fins lucrativos” intensivas em conhecimento. Em particular, são analisados métodos abrangentes de avaliação de desempenho que consistem em um conjunto de medidores, englobando diversas perspectivas de avaliação, com grande impacto na gestão corporativa, representando um avanço em relação aos tradicionais modelos baseados somente em indicadores financeiros. O Estudo identifica as estratégias do SEBRAE/RS e, a partir das análises, propõe uma nova sistemática de avaliação de desempenho, baseada no Balanced Scorecard de Kaplan e Norton, proporcionando melhor visualização, tradução, articulação, comunicação e motivação à realização das estratégias, contemplando as variáveis que são críticas para alcançar a missão estabelecida.
Resumo:
O presente trabalho apresenta um estudo sistemático para a obtenção de um filme polimérico a partir da eletrooxidação do furfural (2-furanoaldeído). O filme foi crescido sobre a superfície do eletrodo de platina (Pt) e sobre carbono vítreo reticulado (CVR). Três técnicas eletroquímicas foram usadas: cronopotenciometria com correntes de 10 mA, voltametria cíclica por ciclagens sucessivas no intervalo de potencial de 2,0 V à 2,70 V (Ag/AgCl) e a cronoamperometria, no potencial de 2,65 V (Ag/AgCl). Diferentes eletrólitos foram testados em solução aquosa sobre Pt. O sal biftalato de potássio foi o eletrólito suporte mais adequado para formação do filme sobre ambos eletrodos, Pt e CVR. Os resultados obtidos confirmam a formação de um filme branco sobre a superfície dos eletrodos, entretanto, com alguma solubilização no próprio meio. Esta solubilidade do filme em meio aquoso permitiu atribuir-lhe características de polieletrólito. Evidências desta característica se confirmam pelas propriedades físico-químicas das soluções do filme testadas resultando no aumento da acidez e no aumento da condutividade do meio, quando se comparam as soluções de biftalato ácido de potássio com as do filme polimérico Os resultados revelam a formação de um filme poroso e espesso sobre a superfície dos eletrodos, com características que dependem do método eletroquímico empregado, bem como do tempo de polarização. A visualização do filme foi registrada por fotografias digitais e caracterizada por microscopia eletrônica de varredura. O crescimento do filme pelo método cronopotenciométrico forneceu os melhores resultados em termos de aderência e volume. Uma observação importante refere-se ao caráter condutor do filme formado, uma vez que medidas eletroquímicas dos eletrodos modificados não acusaram um decaimento significativo das correntes. Além das medidas eletroquímicas, a condutividade do polímero, determinada pelo método das quatro pontas, resultou num valor de 100 µS cm-1 para o obtido potenciostaticamente e de 150 µS cm-1 para o obtido galvanostaticamente. A caracterização do filme envolveu as medidas térmicas de calorimetria diferencial de varredura (DSC) e a análise termogravimétrica (TGA). As medidas espectroscópicas como o ultravioleta, infravermelho, Raman, ressonância magnética nuclear de H1 e de C13 diretamente com o filme formado ou através de suas soluções em solventes adequados, confirmaram a participação de ambos os anéis ftálico e furânico na estrutura do filme.
Resumo:
O tema da presente tese é a demanda do gás natural em um novo mercado, que se encontra em expansão.O objetivo geral é o desenvolvimento de uma metodologia para a previsão de demanda do gás natural, estabelecendo um método que integre as diversas alternativas de previsão de demanda desenvolvidas. Primeiramente, é feita uma revisão da literatura abordando os seguintes temas: (i) demanda de energia no Brasil e no mundo; (ii) demanda de gás natural no Brasil e no mundo; (iii) oferta de gás natural no Rio Grande do Sul; (iv) modelos de previsão de demanda energética; (v) pesquisa qualitativa e grupos focados. São, então, desenvolvidas as alternativas para a previsão de demanda de gás natural: (i) baseado em dados históricos do Rio Grande do Sul: com base no comportamento pregresso da demanda energética estadual faz-se uma extrapolação dos dados de demanda futuros, estimando-se um percentual de participação do gás natural neste mercado; (ii) baseado em equações de previsão que se apóiam em dados sócio-econômicos: tomando-se como embasamento o tamanho da população, PIB, número de veículos da frota do estado, e as respectivas taxas de crescimento de cada uma destas variáveis, estima-se o potencial consumo de gás natural (iii) baseado em dados históricos de outros países: tomando-se por base os dados de países onde já se encontra consolidado o mercado de gás natural, faz-se uma analogia ao caso brasileiro, particularmente o estado do Rio Grande do Sul, visualizando o posicionamento deste mercado frente à curva de crescimento e amadurecimento do mercado consolidado; (iv) baseado na opinião dos clientes potenciais: através de grupos focados, busca-se a compreensão das variáveis que influenciam as decisões dos consumidores de energia, bem como a compreensão das soluções de compromisso (trade off) realizadas quando da escolha dos diferentes energéticos, utilizando-se técnicas do tipo “preferência declarada”; (v) baseado na opinião de especialistas: através de grupos focados com profissionais do setor energético, economistas, engenheiros e administradores públicos busca-se o perfil de demanda esperado para o gás natural. São aplicadas as alternativas individuais à previsão da demanda do gás natural no estado do Rio Grande do Sul, verificando a necessidade de adaptações ou desenvolvimentos adicionais das abordagens individuais. Neste momento, começa-se a construção do método integrador, partindo-se da visualização de benefícios e carências apresentados por cada alternativa individual. É, então, elaborada uma proposta para integrar os resultados das diversas abordagens. Trata-se da construção de um método para a previsão de demanda energética de gás natural que compatibiliza resultados qualitativos e quantitativos gerados nas abordagens individuais. O método parte de diferentes inputs, ou seja, os dados de saída gerados por cada abordagem individual, chegando a um output único otimizado em relação à condição inicial. A fase final é a aplicação do método proposto à previsão de demanda de gás natural no estado do Rio Grande do Sul, utilizando a base de dados gerada para o estudo particular do estado.