95 resultados para Relaxamento de Restrições
Resumo:
O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.
Resumo:
Objetivo: Avaliar os efeitos de um programa de exercício aeróbio sobre o condicionamento cardiorrespiratório em gestantes hígidas, de baixo risco, com sobrepeso. Métodos: 92 mulheres gestantes com sobrepeso (índice de massa corporal 26-31kg/m2), idade ≥ 20 anos, idade gestacional ≤ 20 semanas, com ausência de diabetes e hipertensão, foram alocadas aleatoriamente para realizar exercício aeróbio três vezes por semana com uma hora de duração ou para realizar sessões de relaxamento no grupo controle. Foram realizados dois testes de exercício submáximo em esteira, utilizando protocolo de rampa na entrada do estudo e outro teste após 12 semanas. Resultados: Em teste de exercício submáximo 12 semanas após randomização, o consumo de oxigênio (VO2) no limiar anaeróbio aumentou 17% (± 3) no grupo intervenção enquanto reduziu 16% (± 3) no grupo controle, de modo que após 12 semanas de exercício ajustado através da análise de covariância pelo o VO2 no limiar na linha de base, idade gestacional e idade materna foi de 2,68ml/kg/min (IC 95% 1,32-4,03) maior, P = 0,002. Conclusão: Exercício aeróbio realizado em gestantes com sobrepeso produz um aumento no limiar anaeróbio, sobrepondo os efeitos negativos da gestação sobre o condicionamento cardiorrespiratório em mulheres com estilo de vida sedentário.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
Considerando não apenas a importância das antraciclinas na terapêutica do câncer, mas também os efeitos colaterais associados ao uso destas drogas, o presente estudo procurou avaliar a atividade genotóxica de seis antraciclinas em uso clínico - doxorrubicina (DOX), daunorrubicina (DNR), epirrubicina (EPI), idarrubicina (IDA), além dos análogos de última geração, pirarrubicina (THP) e aclarrubicina (ACLA). Para tanto, foi empregado o Teste de Mutação e Recombinação Somática (SMART) em Drosophila melanogaster, que permite a detecção simultânea de mutação gênica e cromossômica, assim como de eventos relacionados com recombinação mitótica - possibilitando quantificar a contribuição deste último parâmetro genético para a genotoxicidade total induzida pelas drogas em estudo. Os dados obtidos a partir desta análise demonstraram que todas as antraciclinas estudadas induziram acréscimos significativos, relacionados tanto à mutação, quanto à recombinação nas células somáticas deste inseto. Além disso, a recombinação mitótica - entre cromossomos homólogos - foi o evento responsável por, aproximadamente, 62 a 100% da toxicidade genética observada. A comparação do potencial genotóxico dos diferentes análogos, através da padronização do número de danos genéticos por unidade de tratamento (mM), caracterizou a ACLA e o THP como as drogas mais potentes – sendo cerca de 20 vezes mais efetivas, como genotoxinas, do que a DOX, o análogo menos potente. Já que a principal ação genotóxica desta família de compostos está relacionada à inibição da topoisomerase II (topo II) – uma enzima que atua no relaxamento da supertorção da dupla hélice de DNA, através da quebra e posterior religação de suas fitas - as diferenças observadas podem ser atribuídas ao mecanismo envolvido neste bloqueio Enquanto os análogos DOX, DNR, EPI, IDA e THP atuam como venenos de topo II - tornando permanentes as quebras induzidas pela enzima - a ACLA inibe a função catalítica desta enzima, impedindo a sua ligação ao DNA. Cabe ainda ressaltar que a genotoxicidade da ACLA não está restrita à sua atividade catalítica sobre a topo II, mas também à sua ação como veneno de topo I e à sua habilidade de intercalar-se na molécula de DNA. Quando a potência genotóxica destas drogas foi associada a suas estruturas químicas, observou-se que substituições no grupamento amino-açúcar levaram a uma maior atividade tóxico-genética, quando comparadas a modificações no cromóforo. Cabe ainda ressaltar que as modificações estruturais, presentes nos análogos DOX, DNR, EPI, IDA e THP, não alteraram a sua ação recombinogênica. No entanto, no que se refere a ACLA, observaram-se decréscimos significativos na indução de recombinação mitótica - que podem ser atribuídas às múltiplas substituições presentes tanto no grupamento amino-açúcar quanto no cromóforo. O conjunto destas observações evidencia que a genotoxicidade total das drogas em estudo está centrada na indução de recombinação homóloga - um evento predominantemente envolvido tanto na iniciação, quanto na progressão do câncer. A alta incidência de tumores secundários, em pacientes submetidos ao tratamento com as antraciclinas, pode, pois, ser atribuída à ação preferencial destas drogas sobre a recombinação mitótica – embora a atividade mutagênica não possa ser desconsiderada.
O setor leiteiro : políticas, competitividade e impactos da liberalização comercial nos anos noventa
Resumo:
O leite é um dos mais importantes produtos agrícolas em todo o mundo. O mercado internacional de lácteos é dominado pela União Européia, Nova Zelândia, Estados Unidos e Austrália, mas alguns países em desenvolvimento como Brasil e México são também importantes importadores. Sustentação de preços, aquisições governamentais e restrições externas são instrumentos de políticas comuns neste setor. Na Rodada do Uruguai do GATT, em 1986, pela primeira vez os países membros resolveram eleger o comércio agrícola e as políticas domésticas como prioridade. Nesse sentido, ajustes devem ocorrer tanto no mercado internacional quanto nos mercados domésticos dos produtos lácteos visto que a relação entre políticas agrícolas domésticas e comércio mundial de produtos agrícolas é um fato. Neste estudo, o setor leiteiro é analisado da perspectiva das políticas, da produção e do comércio. Além disso, são discutidos também os efeitos da intervenção governamental no setor bem como os impactos da Rodada do Uruguai no mercado internacional e no setor leiteiro do Brasil.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.
Resumo:
Na década de 90 foram produzidos estudos empíricos cuja amostragem envolvia praticamente toda a população existente, isto é, quase todas as nações do mundo. O objetivo declarado destes estudos era correlacionar determinadas variáveis econômicas com o nível de renda e de bem-estar social de cada nação. Naturalmente, sob o ponto de vista da economia, o conceito de bem-estar social deve refletir-se em dados concretos, passíveis de aferição objetiva, e não em critérios subjetivos, sejam estes de natureza cultural ou psicológica. Portanto, o bem-estar social, que é estatisticamente correlacionado com o nível de renda, traduz-se em indicadores como escolaridade, expectativa de vida, taxas de mortalidade, corrupção e pobreza humana, entre outros. Em complemento a estas evidências empíricas, o presente trabalho procura apresentar justificações teóricas que expliquem este desempenho mais eficiente de determinadas economias em relação a outras. Assim, transitando entre diferentes programas de pesquisa, a teoria desenvolvida tentará explicar as atividades de coordenação econômica, enfatizando a influência das restrições impostas aos agentes pelos custos, os incentivos representados pelos preços de mercado, e ainda a importância do arcabouço institucional vigente.
Resumo:
A incorporação de restrições institucionais para a gestão da política fiscal pode explicar resultados sub-ótimos, como déficits fiscais elevados e a demora para o processo de ajustamento. Uma dessas restrições pode ser compreendida como o fato de que a política fiscal não é o resultado apenas das decisões de um formulador de política econômica. Quando se analisa o processo de decisão da política fiscal como o resultado de um processo de conflito de interesses entre agentes ou grupos, então resultados sub-ótimos podem ser explicados sem qualquer apelo a irracionalidade ou ao comportamento não benevolente de uma autoridade fiscal. A modelagem da política fiscal sob a hipótese de fragmentação de governo pode ser feita com mais de uma forma. Nesta tese, com o objetivo de analisar o caso brasileiro recente, primeiro utilizaram-se jogos dinâmicos – onde uma autoridade fiscal central joga com outros agentes que afetam o resultado da política fiscal e que têm funções utilidade distintas da primeira. Em jogos desse tipo pode-se demonstrar a eficiência de mecanismos de punição e incentivo para o cumprimento de uma determinada meta fiscal. Posteriormente, foram feitos testes para observar o padrão de ajustamento fiscal entre maio de 1992 e maio de 2002, no Brasil. Como a natureza do ajustamento fiscal, nos modelos com fragmentação de governo, é infrequente, a aplicação da metodologia de mudança de regime markoviano pareceu ser a mais apropriada. Os resultados obtidos indicaram um padrão de ajustamento esperado em relação às mudanças nos regimes do déficit primário, da dívida pública e ao impacto dos choques externos.
Resumo:
Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.
Resumo:
A iluminação hospitalar, nos espaços de permanência dos pacientes, deve levar em conta os requisitos visuais de seus dois grupos principais de usuários: o staff, com vistas a viabilizar a execução de procedimentos médicos, e os pacientes, que devem ter garantias de boas condições de conforto visual. Os requisitos visuais de ambos usuários incluem diversos critérios quantitativos e qualitativos de iluminação. Além do compromisso de iluminar as tarefas visuais e outras atividades, os sistemas de iluminação também são responsáveis pela criação de impressões ambientais, influenciando as respostas emocionais dos usuários. Isso é particularmente importante nos hospitais, uma vez que os mesmos abrigam pessoas fragilizadas e com alto nível de estresse. Contudo, a prática indica que os projetos de iluminação nestes espaços priorizam os requisitos quantitativos, em detrimento da qualidade visual do ambiente ou das respostas emocionais que estes provocam. Similarmente, tais instalações são sujeitas a restrições econômicas impostas pelo alto custo de construção dos hospitais. Neste contexto, o presente trabalho tem como objetivo estabelecer diretrizes para projetos de iluminação natural e artificial nos espaços de internação e recuperação dos hospitais, enfatizando os critérios qualitativos envolvidos Assim, foram realizados dois estudos de caso: no Hospital Santa Rita, do Complexo Hospitalar da Santa Casa de Misericórdia e no Hospital Moinhos de Vento, ambos em Porto Alegre. Os espaços estudados nos dois hospitais foram os quartos das unidades de internação, as UTI e as salas de recuperação pós-anestésicas dos centros cirúrgicos. A metodologia utilizada para a avaliação dos sistemas de iluminação natural e artificial destes espaços foi baseada em uma análise comparativa entre as medições das condições de iluminação e o nível de satisfação dos usuários. A análise e interpretação dos resultados dos estudos de caso forneceram subsídios para a identificação de padrões nos projetos de iluminação dos hospitais investigados, assim como características individuais. Como decorrência, foi possível elaborar princípios gerais de projeto e diretrizes específicas para a iluminação natural e artificial dos espaços de internação e recuperação, os quais consideram as implicações dos aspectos quantitativos e qualitativos destes sistemas no conforto visual dos usuários.
Resumo:
Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.
Resumo:
Esta dissertação aborda os processos de significação em estados ampliados de consciência desde de uma perspectiva transdisciplinar holística em um estudo de caso com crianças de uma escola pública de Porto Alegre, no Rio Grande do Sul. O trabalho tem como referência teórica principal a psicologia transpessoal e as experiências em estados ampliados de consciência que possibilitam a vivência transpessoal. Considera o ser humano como multidimensional cuja consciência se expressa através de quatro funções: pensamento, sentimento, sensação e intuição. Para a ampliação da consciência foram utilizados métodos reconhecidos pela psicologia transpessoal, no caso, a meditação, o relaxamento, a visualização dirigida e o desenho de mandalas. As mandalas foram a linguagem escolhida para a expressão das significações produzidas durante os estados ampliados de consciência. O método fenomenológico utilizado permitiu revelar que símbolos do inconsciente coletivo emergem para a consciência durante vivências em estados ampliados de consciência. A partir da interpretação reiteramos o entendimento de que existe dentro de cada ser humano uma fonte de sabedoria que está para além dos limites da personalidade, o que corresponde às pesquisas de outros exploradores da consciência humana (Wilber, Grof, Weil). Concluímos o trabalho apresentando o Projeto da Educação da Consciência, o qual se constitui numa proposta de educação da consciência humana em sua multidimensionalidade para a plena manifestação do ser.