111 resultados para Processo de validação de escalas
Resumo:
A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.
Resumo:
A resposta da vegetação às condições ambientais pode ser observada nos diferentes padrões da paisagem. Estas respostas são o reflexo da atuação de fatores bióticos e abióticos que são responsáveis pela distribuição complexa observada nos mosaicos paisagísticos, em diferentes escalas – espaciais e temporais. Neste sentido, o presente trabalho teve como objetivo elucidar as possíveis relações entre a vegetação e as características edáficas, em uma área de mineralização de cobre, mina Volta Grande, Lavras do Sul, RS. Com bases na ecologia de paisagem, utilizamos diferentes ferramentas para analisar a vegetação - métodos dos pontos e determinação dos tipos funcionais de plantas – e o solo – determinação das características geomorfológicas, químicas e físicas do solo, e o processo pedogenético – tendo em vista o estabelecimento de unidades da paisagem - ecótopos. De acordo com os resultados obtidos, distinguiram-se 8 diferentes ecótopos vegetacionais, expressos nas três escalas de abordagem (meso, micro e macro escala). Os ecótopos com maior expressividade são os savanóides, estando estes provavelmente associados às ocorrências dos filões de cobre. Com relação às concentrações de cobre disponível no solo, não se observou, estatisticamente, nenhum valor de correlação entre a as características dos tipos funcionais e as concentrações deste metal nos solos estruturados. Os tipos funcionais revelaram a existência de adaptações escleromórficas nos indivíduos constituintes da vegetação de savana. Além disto, observamos a existência de um gradiente vegetacional – formações campestres, savanas e florestas, e um gradiente edáfico – afloramento rochoso, litossolos e cambissolos, ambos relacionados com a geomorfologia da área da mina.
Resumo:
O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.
Resumo:
Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.
Resumo:
Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.
Resumo:
O presente estudo desenvolve-se numa perspectiva prática, visando à integração de conhecimentos gerados pela pesquisa a atividades assistenciais no hospital geral universitário, dirigindo-se, especificamente, à questão da detecção da depressão. A depressão é um problema de saúde pública no mundo inteiro, transtorno mental de alta prevalência, com elevado custo para os sistemas de saúde. Entre pacientes clínicos e cirúrgicos, hospitalizados, aumenta a complexidade dos tratamentos, implica maior morbidade e mortalidade, importando também no aumento do tempo e dos custos das internações. Por outro lado, a depressão é subdiagnosticada. Este estudo, originado de um projeto cujo objetivo foi criar um instrumento para a detecção de depressão, utilizável na rotina assistencial, a partir da avaliação do desempenho de escalas de rastreamento já existentes, desdobra-se em três artigos. O primeiro, já aceito para publicação em revista indexada internacionalmente, é a retomada de estudos anteriores, realizados no final da década de 1980. É apresentada a comparação da detecção de depressão, realizada por médicos não-psiquiatras e por enfermeiros, no Hospital de Clínicas de Porto Alegre (HCPA), em 1987 e em 2002. O segundo artigo apresenta o processo de construção da nova escala, a partir da seleção de itens de outras escalas já validadas, utilizando modelos logísticos de Rasch. A nova escala, composta por apenas seis itens, exige menos tempo para sua aplicação. O terceiro artigo é um estudo de avaliação de desempenho da nova escala, denominada Escala de Depressão em Hospital Geral (EDHG), realizado em uma outra amostra de pacientes adultos clínicos e cirúrgicos internados no HCPA. O segundo e terceiro artigos já foram encaminhados para publicação internacional. Esses estudos, realizados em unidades de internação clínicas e cirúrgicas do Hospital de Clínicas de Porto Alegre, permitiram as seguintes conclusões: a) comparando-se os achados de 1987 com os de 2002, a prevalência de depressão e o seu diagnóstico, em pacientes adultos clínicos e cirúrgicos internados, mantêm-se nos mesmos níveis; b) foi possível selecionar um conjunto de seis itens, que constituíram a nova Escala de Depressão em Hospital Geral (EDHG), baseando-se no desempenho individual de cada um dos 48 itens componentes de outras três escalas (BDI, CESD e HADS); c) a EDHG apresentou desempenho semelhante aos das escalas que lhe deram origem, usando o PRIME-MD como padrão-ouro, com a vantagem de ter um pequeno número de itens, podendo constituir-se num dispositivo de alerta para detecção de depressão na rotina de hospital geral.
Resumo:
Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.
Tradução, adaptação e validação do Defensive Style Questinnaire (DSQ-40) para o português brasileiro
Resumo:
O estudo dos mecanismos de defesa do ego tem servido como indicativo do modo típico de um indivíduo lidar com os conflitos. Os mecanismos de defesa podem ser agrupados em três fatores alocados de forma hierárquica: fatores maduros, neuróticos e imaturos. Bond desenvolveu um questionário objetivo e auto-aplicável, o Defensive Style Questionnaire – DSQ, que visa identificar os derivados conscientes dos mecanismos de defesa. O objetivo desse estudo é o de descrever o processo de tradução do Defensive Style Questionnaire (DSQ-40) versão em português e avaliar a confiabiidade, validade de conteúdo de constructo dessa versão do instrumento. Métodos: A primeira versão da escala foi apresentada para cinco indivíduos, com graus diferentes de escolaridade, que efetuaram pequenos ajustes de linguagem. Posteriormente, a escala foi apresentada para três “experts”, que avaliaram a validade de conteúdo do instrumento. A versão final foi retraduzida e apresentada para o autor do instrumento original que aceitou essa versão do DSQ-40. Posteriormente foi avaliada a confiabilidade e validade da versão em português do Defensive Style Questionnaire (DSQ-40). A amostra constitui-se de 339 indivíduos. Uma subamostra (n=75) foi avaliada também pelo MMPI, e outra subamostra (n=66) foi também avaliada pelo DFS (Escala de Funcionamento Defensivo). Resultados: Houve necessidade de pequenos ajustes no vocabulário em oito questões e modificações na linguagem em quatro questões, resultando na versão final do instrumento. A média de correlação dos “experts” com cada defesa foi de 89%, e dos fatores maduros, imaturos e neuróticos foi de 100%. A análise fatorial do instrumento forneceu uma distribuição das defesas semelhante ao instrumento original. A avaliação teste-reteste demonstrou boa correlação intraclasse em todos os fatores. O uso de defesas imaturas e neuróticas foi maior entre os pacientes que os controles (p<0,05). Houve correlação entre o nível defensivo de acordo com o DFS (p=0,006) e MMPI (p=0,004) e as defesas imaturas. Conclusões: A adaptação do DSQ-40 por diferentes indivíduos com diferentes graus de escolaridade e pelo grupo de experts possibilitou o ajuste à realidade sociocultural brasileira. Os dados do presente estudo indicam que a versão em português do DSQ-40 possui características psicométricas que permite o seu uso na nossa cultura.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
Este trabalho abordou o tema validação de processos farmacêuticos, tendo como objetivos o levantamento do referencial teórico relativo ao tema, o acompanhamento do projeto de elaboração de um Plano Mestre de Validação (PMV) em uma empresa Farmacêutica e a apresentação de uma proposta para a elaboração de um Plano Mestre de Validação de processos farmacêuticos. De acordo com a revisão da literatura, a validação na produção de medicamentos em empresas farmacêuticas deve ser resultado do trabalho de uma equipe de profissionais de diferentes departamentos da empresa. Este perfil multifuncional da equipe implica em comprometimento com o trabalho a ser realizado, definição de responsabilidades e atividades. A proposta apresentada sugere um caminho para a elaboração desse Plano, contemplando as validações do tipo prospectivas, através da abordagem de projetos e das etapas que o caracterizam: definição conceitual, planejamento, execução e conclusão. Além da revisão bibliográfica, a proposta foi concebida com base no trabalho realizado junto a uma empresa farmacêutica, resultando na construção de três fluxos, referentes a: tipos de validação, etapas da validação e etapas pós-validação. O trabalho prático conduzido junto à empresa permitiu a estruturação de um PMV para um processo de produção específico.
Resumo:
Este estudo teve por objetivo compreender como a espiritualidade permeia o processo de cuidar de si e do outro no mundo da terapia intensiva, sob o olhar das cuidadoras de enfermagem. A pesquisa caracterizou-se por uma abordagem qualitativa do método criativo-sensível de Cabral, que guiou a produção e a análise das informações, seguindo as etapas de codificação, decodificação e recodificação ou aliança de saberes. Contou-se com a participação de nove cuidadoras de enfermagem, duas enfermeiras e sete técnicas de enfermagem, do Centro de Tratamento Intensivo (CTI) de um hospital universitário. Para a produção das informações, foram realizadas nove oficinas de arte e de experiências, sendo que a última destinou-se à validação da análise das informações. Nesse percurso, emergiram os seguintes temas: os significados de espiritualidade; a espiritualidade no cuidado de si e a espiritualidade no cuidado do outro. O primeiro tema exprimiu os significados de espiritualidade como propósito de vida, como conexão com uma Força Superior e com o Cosmo e como autoconhecimento. O segundo tema evidenciou que a espiritualidade no cuidado de si estava nas práticas cotidianas que aconteciam por meio da oração, do contato íntimo com a natureza, assim como no senso de conexão com uma Força Superior que propiciava tranqüilidade, bem-estar e fortalecimento à vida e ao trabalho das cuidadoras no CTI. As participantes demonstraram estar conscientes de si mesmas quando reconheceram que se fragilizavam com o mundo vivido e precisavam também de cuidado, que poderia se dar na ajuda mútua entre os cuidadores. O autoconhecimento revelou-se como uma prática essencial no cuidado de si para melhor cuidar do outro. E o terceiro tema desvelou que a espiritualidade no cuidado do outro partiu da fragmentação do cuidador e do cuidado intensivo para um caminho de reintegração do ser humano, capaz de transformar a cultura que inibiu e oprimiu o cuidado expressivo no CTI. A espiritualidade revelou-se nas práticas de cuidado que incluíam fé, imposição de mãos e oração, assim como foi algo que emergiu da interioridade humana para se manifestar na relação com outro no modo de ser do cuidador e se revelou no olhar, na atenção, no carinho, na amorosidade, no diálogo que tranqüilizava, na mão que dava conforto e segurança, na capacidade de escuta e de construir confiança em uma ambiência de cuidado para os envolvidos neste encontro.
Resumo:
Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.
Análise de escoamentos incompressíveis utilizando simulação de grandes escalas e adaptação de malhas
Resumo:
No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.
Resumo:
A transição à turbulência em uma camada de mistura estavelmente estratificada é de grande interesse para uma variedade de problemas geofísicos e de engenharia. Esta transição é controlada pela competição entre o cisalhamento do escoamento de base e as forças de empuxo, devido à estratificação em densidade do ambiente. Os efeitos do empuxo atuam no escoamento reduzindo a taxa de crescimento das perturbações e retardando a transição à turbulência, enquanto o cisalhamento fornece energia cinética ao escoamento. O presente trabalho investiga a natureza da transição à turbulência em uma camada de mistura temporal estavelmente estratificada através de Simulação Numérica Direta (DNS) e Simulação de Grandes Escalas (LES). O propósito da investigação é analisar o efeito da estratificação estável no desenvolvimento da instabilidade de Kelvin-Helmholtz (K-H) e na formação dos vórtices longitudinais, que se formam após a saturação dos turbilhões primários de K-H. Além deste propósito, é examinado, utilizando de DNS e LES, o desenvolvimento das instabilidades secundárias de K-H na camada baroclínica. Os testes numéricos tridimensionais são realizados com diferentes tipos de condições iniciais para a flutuação de velocidade transversal, enquanto uma condição forçada é usada para as outras duas componentes de flutuação de velocidade. Em particular, o efeito do comprimento transversal do domínio de cálculo é testado empregando diferentes comprimentos, enquanto são usadas as mesmas dimensões para a direção longitudinal e vertical. As simulações bidimensionais mostram que o aumento da estratificação inibe o processo de emparelhamento, reduz a troca de energia entre os turbilhões de K-H e o escoamento, atenua a instabilidade de K-H e diminui o fluxo vertical de massa. A instabilidade secundária do tipo K-H é identtificada na camada baroclínica para Re ¸ 500 quando há o processo de emparelhamento dos vórtices simulados. Na simulação a Re = 500, a instabilidade secundária de K-H aparece tanto para Ri = 0.07 (fraca estratificação) como para Ri = 0.167 (forte estratificação). Os resultados tridimensionais demonstram que os vórtices longitudinais são claramente formados na camada a Ri = 0. Por outro lado, nos casos estratificados os vórtices são enfraquecidos, devido ao gradiente longitudinal de densidade, que diminui a vorticidade nos turbilhões de K-H enquanto aumenta na região entre eles.