1000 resultados para atmosfera padrão
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
Neste estudo buscou-se entender as relações dos Jatos de Nível Baixo (JNB) na geração de convecção em escala sinótica e a sua associação com eventos de intensa precipitação. Observou-se o perfil vertical do vento através de radiossondagens realizadas no Aeroporto Internacional Salgado Filho em Porto Alegre e em Uruguaiana no interior do estado do Rio Grande do Sul, Brasil. Analisou-se a sua variabilidade sazonal, intra e inter-sazonalidade. Estimaram-se suas escalas e intensidades predominantes, descrevendo a interação dos JNB's e o seu importante papel na circulação geral da atmosfera e no transporte de vapor de água e calor das regiões equatoriais para regiões de latitudes médias, influenciando diretamente o balanço hídrico de extensas bacias hidrográficas interligadas neste transporte. Os JNB's associados neste intenso transporte apresentam uma tendência de estarem ligados a eventos convectivos noturnos e na geração de Complexos Convectivos de Mesoescala (CCM), que geram elevados índices pluviométricos que podem causar importante impacto econômico Utilizam-se várias técnicas estatísticas para realização deste estudo, como a Análise das Componentes Principais, Classificação Não-Hierárquica dos JNB's, cálculo das correlações dos sinais das séries temporais dos JNB's e as precipitações, com a utilização de técnicas "Bootstrap", uso de técnicas geoestatísticas, com o cálculo do variograma da precipitação máxima e dos seus dias de evento com ajustamento de um modelo para o variograma teórico. Realiza-se a modelagem com o uso do modelo meteorológico "Model Mesoscale Five" (MM5) para estudar a estrutura e caracterizar o transporte realizado pelo JNB. O emprego destas metodologias facilita o entendimento da complexidade das interações de diferentes escalas meteorológicas envolvidas nos processos sinóticos de macro e mesoescala. Em tal complexidade, o trabalho realizado pelos JNB's nesta interação é o de ser a escala efetiva de transporte na baixa atmosfera, que realiza o importante papel de acoplar a meteorologia regional e o ciclo hidrológico em escala continental.
Resumo:
O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.
Resumo:
Este trabalho estuda o comportamento do consumo dos principais meios de mídia na sociedade brasileira, investigando se ele está relacionado à classe social de um indivíduo. Sendo assim, foi feito um levantamento teórico sobre consumo de mídia, classes sociais e comportamento do consumidor. Posteriormente, são estudados quais outros fatores, além da classe social, influenciam no padrão do consumo de mídia, a partir de uma análise de correspondência. Para isso, são examinadas características sociais, demográficas e comportamentais das amostras de indivíduos que consomem cada mídia. Ademais, a análise de correspondência também permite examinar o poder das variáveis estudadas em cada meio como influenciador na decisão de compra, conforme mostra a teoria do comportamento do consumidor.
Resumo:
Este trabalho analisa o impacto da profissionalização legislativa no padrão de carreira dos deputados mineiros e fluminenses. Para esta análise, é desenvolvida uma medida de profissionalização que se adapta à realidade brasileira, levando em consideração o índice criado por Squire (1992), o qual argumenta que a profissionalização do Legislativo Estadual, nos Estados Unidos, é decorrente da estrutura governamental que sofreu grandes mudanças nos últimos quarenta anos e que as suas causas e efeitos devem ser estudados cuidadosamente. Para tal fim, foi utilizada uma base de dados de profissionalização referente aos anos de 2002, 2006 e 2010 nas Assembléias Legislativas dos Estados de Minas Gerais (ALMG) e do Rio de Janeiro (ALERJ). A hipótese testada é a de que instituições mais profissionalizadas geram maiores incentivos e recursos para que os deputados tentem a reeleição e obtenham maior êxito na sua estratégia.
Resumo:
O trabalho está inserido na grande área do direito societário, especificamente sob a temática dos conflitos de interesses nas deliberações de S.A.´s listadas em Bolsa de Valores. O objetivo assumido foi o de percorrer criticamente as propostas teóricas empregadas na interpretação do problema jurídico resultante destes conflitos, para depois realizar um estudo empírico sobre uma modalidade negocial potencialmente conflitiva, as transações entre partes relacionadas. Após o estudo da lógica norteadora das propostas doutrinárias, sustenta-se a hipótese de que as explicações da literatura jurídica brasileira variam na razão do conceito aberto de “interesse da companhia”, articulado de acordo com a posição da parte representada pelo advogado. Arbitrariamente concebidas como formais ou substancias, tais interpretações cuidam do momento de violação do interesse da companhia, respectivamente, visando proibir ou garantir o exercício de voto do interessado por meio de entendimentos convenientes ao tempo do litígio. Diante deste comprometimento do raciocínio abstrato com a prática da advocacia, sugere-se a abordagem do tema por outra proposta teórica, vinculada a uma noção específica do Direito. Compreendido como um provedor de informações relevantes aos interessados nas operações das empresas, ele atua na regulação dos dados exigidos destas sociedades e na confecção das informações produzidas individualmente por elas. Tal transparência, junto das regras que vinculam o mercado, forma o conteúdo conceitual da expressão governança corporativa, desenvolvido em torno da proposta chamada de “sistema de governança corporativa”. A interpretação das informações dos diversos possíveis sistemas deve oferecer ao tomador de decisão a chance de conhecer os seus poderes, prerrogativas, incentivos, competências, limitações e proibições, de modo a avaliar se a sua escolha é uma boa prática de governo da empresa, segundo o sistema no qual ela opera. Aos terceiros interessados, deve servir para verificar se o processo decisório segue o esperado pelo ambiente negocial que o sistema de governança delineia. No tema do conflito de interesses, a sugestão de pensar o problema por esta noção do Direito visa respaldar a criação e divulgação de regras próprias pelas empresas listadas, as quais alimentem o aludido sistema de governança e sirvam à tomada de decisões que orientem o alinhamento dos objetivos dissonantes envolvidos na companhia, sem que haja a necessidade de recorrer ao arbitramento externo. O trabalho empírico se debruça então nos estudos destas regras particulares aplicáveis às transações entre partes relacionadas, tais mecanismos são colhidos nos formulários de referência das 100 companhias mais líquidas da BM&FBovespa no ano de 2011. Os resultados mostram que apenas 6% das empresas possuem procedimentos para identificar as relações conflituosas decorrentes da modalidade negocial estudada e 29% para tratar o problema. Os números relativos às sociedades que estabelecem regras para a administração dos conflitos de interesses nas deliberações de assembleia geral e conselho de administração também são baixos, respectivamente, 7% e 13% apresentam mecanismos de identificação, 4% e 11% para o seu tratamento. A baixa frequência mostrada pelos resultados à luz da proposta teórica construída identifica uma oportunidade, qual seja, a de pensar a mitigação do problema por esta via particular e extrajudicial.
Resumo:
Este artigo examina a relação entre informações acerca do background dos prefeitos brasileiros e o padrão dos seus respectivos gastos. Usando dados das eleições de 1996, 2000, 2004 e 2008, busca-se investigar se o nível educacional e a ocupação prévia desses governantes afetam a maneira como os mesmos realizam os gastos municipais. Os resultados sugerem que prefeitos cuja ocupação anterior tenha sido político, em média, gastam menos (entre 1.8% e 2.0%) do que prefeitos com algumas outras experiências. Os dados apontam ainda que o nível de escolaridade dos prefeitos não tem efeitos sobre o nível de gastos. Políticos de carreira, uma vez no executivo local, gastam menos em urbanismo (entre 3.32% e 8.95% sobre o percentual gasto com urbanismo) e saúde (entre 1.55%. e 3.9% sobre o percentual gasto com saúde) e mais em transporte (de 6.69% a 9.41% sobre o percentual gasto com transporte) e administração (entre 3.46% e 5.63% sobre o percentual gasto com administração) do que profissionais com outra formação.
Resumo:
O mercado de gastronomia em São Paulo é um mercado de altamente competitivo e que atende a um público extremamente exigente. Os fatores que determinam o sucesso ou insucesso de um empreendimento dentro deste mercado vão muito além da execução dos pratos – eles estão ligados ao nível do entendimento sobre um ambiente de atuação bastante específico e às respostas estratégicas construídas em função deste entendimento. Esta dissertação propõe tentar estudar a capacidade dos restaurantes de São Paulo em gerar e capturar valor na cadeia na qual se inserem, considerando suas estratégias (de diferenciação ou redução de custo), gestão de imagem e das diversas decisões tomadas por restaurantes de com diferentes estruturas societárias e distintos modelos de gestão. A análise será conduzida com base em conceitos de estratégia (sobretudo à luz das ideias acerca do modelo de valor - Brandenburger & Stuart (1996) – o que implica na compreensão da cadeia de valor na qual se inserem estes estabelecimentos). Por meio da observação crítica sobre o gerenciamento estratégico deste tipo de negócio, pretendemos distinguir as diferentes formas de atuação dos restaurantes.
Resumo:
A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista
Resumo:
A teoria de custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção discreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sistemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-se a estreita visão das variaçoes de preço e quantidade com a consideração da variação de unidades, que acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária
Resumo:
Trata o presente estudo, da teoria geral dos Oligopólios Internacionais do ponto de vista da sua funcionalidade e estratégia global à longo prazo (crescimento da taxa de acumulação com equilíbrio financeiro) e dos possíveis limites que essa estratégia encontra a nível global e em particular no caso do Brasil. O contexto teórico geral desse trabalho envolve a reflexão crítica em torno de três aspectos fundamentais da teoria dos oligopólios internacionais, que alinhamos do seguinte modo: a) internacionalização do capital, b) seu impacto sobre a periferia e c) a administração da lei do valor e crises. Finalmente estudamos a extensão e interiorização do processo produtivo em função do financiamento interno no Brasil e os problemas gerados pela não funcionalidade orgânica entre o capital produtivo e o capital financeiro. Procuramos também verificar os limites encontrados em relação ao seu pleno desenvolvimento.
Resumo:
A radioproteção dos pacientes submetidos a exames radiográficos está diretamente ligada à qualidade e à repetição das radiografias realizadas. Esta dissertação é apresentada sob a forma de três artigos. O artigo I avaliou a qualidade de 300 radiografias panorâmicas enviadas a clínicas de ortodontia. As radiografias foram classificadas como excelentes (não se observam erros), aceitáveis para diagnóstico (observam-se erros, contudo os mesmos não impedem o diagnóstico) e inaceitáveis (imagem sem valor diagnóstico). Um total de 16,33% das radiografias foi considerado excelente, 78,66% aceitáveis para o diagnóstico e 5% inaceitáveis. Encontrou-se uma média de 1.54 erros por radiografia, sendo os mais freqüentemente encontrados a falta de contato da língua com o palato (21%), aparecimento de imagens fantasma (19,66%), mento inclinado para cima (15,66%), paciente à frente do plano de foco (13,33%), cabeça girada (13,33%), imagens com alta densidade (10,33%) e com baixa densidade (8,66%). Concluiu-se que os padrões de qualidade da amostra estão de acordo com o preconizado em Guidelines on Radiology Standards for Primary Dental Care, segundo os quais se admite até 10% de imagens inaceitáveis. Contudo, cabe salientar que não se conhece o índice de repetições nas clínicas onde as radiografias da amostra foram obtidas e, tendo passado por um controle de qualidade prévio, todas as imagens deveriam ser classificadas como excelentes ou aceitáveis. O artigo II avaliou a freqüência dos erros que levaram à repetição de radiografias panorâmicas realizadas no Serviço de Radiologia da FO-UFRS. O livro de registros do Serviço mostrou um total de 3815 radiografias panorâmicas realizadas no período de junho de 2002 a junho de 2005. No mesmo período o Serviço apresentou 330 radiografias panorâmicas repetidas, resultando em índice de repetição de 8,65% dos exames. Os erros mais freqüentemente encontrados foram: paciente posicionado à frente do plano de foco (25,15%); cabeça girada para direita ou esquerda (24,84%); cabeça inclinada para frente (21,21%); paciente posicionado atrás do plano de foco (20,30%); imagem com a alta densidade (19,69%); imagem com baixa densidade (17,27%); imagem com baixo contraste (16,96%); imagem com alto contraste (12,72%); cabeça inclinada para direita ou esquerda (12,42%); corte do côndilo na radiografia (11,21); corte do mento na radiografia (8,48%); ausência de contato da língua com o palato (7,27%); paciente se moveu durante a exposição (4,94%); cabeça inclinada para trás (2,72%) e aparecimento de imagem fantasma (2,12%). Encontrou-se uma média de 2,07 erros por radiografia. Conclui-se que os erros mais freqüentemente cometidos foram classificados como erros de posicionamento do paciente e que o Serviço de Radiologia da FO-UFRGS apresenta um índice de repetição de radiografias panorâmicas satisfatório, estando de acordo com os padrões de qualidade estabelecidos pelo Guidelines on Radiology Standards for Primary Dental Care. O artigo III teve por objetivo verificar o efeito da radiação emitida em radiografias panorâmicas sobre as células da borda lateral direita da língua, através da avaliação das alterações nucleares, antes e depois da exposição aos raios X. A amostra foi constituída de 42 indivíduos adultos jovens do gênero masculino, sendo 22 deles pertencentes ao grupo que realizou uma radiografia panorâmica (grupo I) e os outros 20 pacientes pertencentes ao grupo II, que realizou duas radiografias panorâmicas. O exame citopatológico das células esfoliadas da mucosa da língua foi realizado antes da incidência radiográfica e 10 dias após. As células foram obtidas através da raspagem e as lâminas foram coradas pela técnica de Feulgen. Para observação das alterações citopatológicas foram analisadas 2.000 células em cada lâmina e quantificados os micronúcleos, buds, broken eggs, cariorrexes e células binucleadas. As lâminas foram analisadas por um único observador. Constatou-se que existe diferença significativa (p=0,01) para as variáveis broken egg, bud, cariorrexe e célula binucleada antes e depois da exposição à radiação ionizante. Na comparação entre os grupos, verificou-se que as variáveis cariorrexe e célula binucleada apresentaram diferença significativa (p=0,01), ambas com valores superiores para o grupo II.
Resumo:
Este estudo buscou incluir mais um ponto de dados às evidências que se acumulam a partir do trabalho de Olivei e Tenreyro (2007, 2010), que encontrou evidências empíricas sobre a importância da rigidez dos salários nominais sobre os efeitos reais da política monetária, explorando a ligação entre os diferentes padrões dos reajustes salariais encontrados nos países e o comportamento do produto e dos preços diante de choques de política monetária. Para o Brasil, inovações na política monetária que ocorrem no segundo trimestre ou no quarto trimestre provocariam uma resposta mais intensa do PIB do ponto de vista da significância estatística. Por outro lado, os choques monetários que ocorrem no primeiro ou no terceiro trimestre são associados a reações do produto com pouca significância estatística. Para a inflação, não foram conseguidas respostas estatisticamente significantes para nenhum tipo de trimestre. Incentivado por informações concretas sobre o calendário dos reajustes salariais, que sugerem a redefinição de uma grande fração dos salários entre março e maio e entre outubro e novembro, propomos uma possível explicação para as respostas diferenciadas baseadas em alteração concentrada dos contratos dos salários.
Resumo:
Este trabalho visa o uso da função de Green de valor inicial no ajuste geostrófico e do método Semi-Lagrangeano na integração de um modelo acoplado oceano-atmosfera descrito pelas equações de águas rasas. O ajuste geostrófico é considerado atravées de perturbações na pressão e do vento. No caso de sistemas sem rotação, é discutida a relação da equação hidrostática com ondas longas não-dispersivas. Com rotação, a conservação da vorticidade potencial permite escolher a elevação correspondente a um estado de equilíbrio geostrófico. O sistema de equações de águas rasas é desacoplado em equações de Klein-Gordon com valores iniciais e termos não-homogêneos acoplados. A resposta dinâmica formada pela resposta transiente e a resposta forçada é obtida para uma perturbação inicial da elevação. A ação do vento como forçante nas equações de momento 2D, através do transporte de Eckman, conduz a uma equação de águas rasas forçada. Uma decomposição da resposta forçada é realizada com uma resposta permanente, que satisfaz a equação de Helmholtz , e com o uso da base dinâmica gerada pela resposta impulso. Um modelo hidrodinâmico 3D introduzido por Casulli e governado por equações não-lineares de águas rasas é integrado na vertical para a obtenção de um modelo 2D. Com isto, as condições de contorno devido a tensão do vento e a fricção devido a topografia do fundo, transformam-se em forçantes do modelo. O modelo foi integrado com um método semi-implícito em diferenças finitas, utilizando-se o método Semi-Lagrangeano para a parte advectiva. Simulações simbólicas foram realizadas para o ajuste geostrófico devido a perturbações de duração infinita e finita para a elevação e para o efeito da tensão do vento. Foram realizadas simulações numéricas para variadas geometrias, em particular a Baia de Guanabara e a Lagoa do Patos.