110 resultados para Polinómios complexos
Resumo:
O método LTSN tem sido utilizado na resolução de uma classe abrangente de problemas de transporte de partículas neutras que são reduzidos a um sistema linear algébrico depois da aplicação da transformada de Laplace. Na maioria dos casos estudados os autovalores associados são reais e simétricos. Para o problema de criticalidade os autovalores associados são reais ou imaginários puros e simétricos, e para o o problema de multigrupo podem aparecer autovalores complexos. O objetivo deste trabalho consiste na generalização da formulação LTSN para problemas de transporte com autovalores complexos. Por esse motivo é focada a solução de um problema radiativo de transporte com polarização em uma placa plana. A solução apresentada fundamenta-se na aplicação da transformada de Laplace ao conjunto de equações SN dos problemas resultantes da decomposição da equação de transferência radiativa com polarização em série de Fourier, seguindo o procedimento de Chandrasekhar. Esse procedimento gera 2L + 2 sistemas lineares de ordem 4N dependentes do parâmetro complexo "s". Aqui, L é o grau de anisotropia e N a ordem de quadratura. A solução desse sistema simbólico é obtida através da aplicação da transformada inversa de Laplace depois da inversão da matriz simbólica pelo método da diagonalização. Para a obtenção das constantes de integração é assumido que os componentes do vetor de Stokes são reais e as matrizes dos autovalores e autovetores são separadas em suas partes real e imaginária. A solução LTSN para autovalores complexos é validada através da comparação da solução para uma placa com espessura unitária, grau de anisotropia L = 13, albedo de espalhamento simples $ = 0:99, coe ciente de re exão de Lambert ¸0 = 0:1 e N = 150, segundo dados da literatura consultada.
Resumo:
O presente estudo teve como objetivo avaliar as modificações que ocorreram no ecossistema aquático pela transformação rio-reservatório devido à construção e operação da barragem Dona Francisca. Amostras sazonais foram coletadas para avaliar características físicas e químicas ao longo de dois anos em nove estações amostrais na área correspondente ao reservatório da Dona Francisca, compreendendo quatro períodos de amostragem antes da formação do reservatório e quatro períodos depois da formação do reservatório, totalizando 8 períodos. No Capítulo 1 são apresentadas as bases teóricas sobre reservatório como ecossistemas complexos e compartimentalisados. O capítulo dois corresponde ao estudo experimental dos processos de estratificação e circulação baseado nos perfis verticais de temperatura, oxigênio dissolvido, condutividade elétrica e pH. No Capítulo 3 são comparados os padrões espaciais e temporais através da análise de alguns características físicas e químicas em duas fases, sendo uma compreendendo um ano antes de reservatório e outra compreendendo um ano depois da formação do reservatório. Por último, no Capítulo 4 é apresenteda uma análise integrada das características físicas e químicas da água usando análise multivariada (agrupamento e ordenação). Os resultados demonstraram que houve alterações das características limnológicas tanto no espaço como no tempo. As alterações compreendem mudanças nos padrões de fluxo unidirecional da antiga condição de rio para padrões anuais com períodos de estratificação com formação de termoclina no verão, deslocamento de massas de água sem homogeneizaçãi da coluna de água no outono e circulação com homogeneisação da coluna de água no inverno e primavera. Tais padrões variaram nas diferentes reggiões do reservatório, e conduziram à classificação do reservatório Dona Francisca como monomítico quente. A zonação em três regiões distintas baseada no gradiente longitudinal causado pela pressaão da cunha fluvial do rio principal, e a formação de remansos são fenômenos comuns à maioria dos reservatórios sendo também constatados no reservatório dona Francisca. As mudanças constatadas resultaram em processos de precipitação e sedimentação de materiais como ferro, manganês e sólidos suspensos, os quais eram carregados rio abaixo antes da formação do reservatório. Além disso, foram registradas mudanças no balanço térmico e químico, como o aumento da temperatur e a diminuição do oxigênio dissolvido devido ao aumento do tempo de residência. Também ocorreu aumento gradual da acidez e demanda química de oxigênio causada pela decomposição da vegetação submersa.
Resumo:
Tradicionalmente o processo de desenvolvimento do produto (PDP) tem sido realizado através do cumprimento seqüencial de metas relacionadas a fases segmentadas. Entretanto, o aumento da complexidade dos produtos e dos processos, observado nas últimas décadas, tem exigido das empresas a modificação da forma de conduzir esse processo. Neste contexto, o atendimento rápido e eficaz às solicitações de mercado tem sido considerado essencial ao sucesso das empresas nos mais variados setores. Em resposta às novas demandas, muitas empresas passaram a utilizar práticas relacionadas à organização simultânea do desenvolvimento do produto, as quais são amplamente conhecidas como engenharia simultânea (ES). Da sua parte, a comunidade acadêmica tem procurado entender este novo processo, através da busca de um novo referencial teórico. A partir dessas novas abordagens vários trabalhos têm sido desenvolvidos no sentido de contribuir para a melhoria do PDP. Entretanto, um assunto pouco investigado é o planejamento e controle desse processo Assim, o objetivo deste trabalho consiste em propor um conjunto de diretrizes para a integração do planejamento e controle dos processos de projeto e produção na construção civil, para empreendimentos complexos, rápidos e com elevado grau de incerteza. O método de pesquisa envolveu a realização de quatro estudos de caso em uma empresa construtora de Porto Alegre, que atua no mercado de edificações industriais, comerciais e hospitalares para clientes privados. Esses estudos tiveram empreendimentos de construção civil como objeto de análise. A integração do planejamento e controle do PDP foi a unidade de análise. O estudo constatou que a integração do planejamento e controle integrado dos processos de projeto e produção é viável e essencial à redução de perdas no PDP. Para este fim, podem ser utilizados métodos e ferramentas simples para o planejamento e controle do processo de projeto ao longo do PDP. Como contribuições conceituais, este trabalho possibilitou o melhor conhecimento da natureza do processo de projeto no que diz respeito ao estabelecimento de planos de projeto.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
Para avaliar associação entre infarto do miocárdio e a presença no eletrocardiograma de extra-sístoles supraventriculares ou ventriculares com morfologia QR, foi realizado um estudo de caso-controle aninhado em um estudo transversal. No período de janeiro de 2000 a maio de 2004 foram realizados 6244 exames de cateterismo cardíaco na Unidade de Hemodinâmica do Serviço de Cardiologia do Hospital de Clínicas de Porto Alegre. Deste grupo foram selecionados 35 pacientes com infarto do miocárdio (IM) e 11 sem IM, sendo que destes 46 pacientes 33 já apresentavam extra-sístoles espontaneamente e os outros 13 tiveram suas extra-sístoles obtidas em estimulação elétrica programada. Deste modo, nosso estudo constitui-se 35 casos de IM com extra-sistoles espontâneas ou provocadas e 11 controles sem IM. Com extra-sistolia (espontânea ou provocada). Os traçados eletrocardiográficos foram estudados, e observaram-se, quais os pacientes que apresentaram nas extra-sístoles morfologia tipo QR (QRS, QRs, Qrs) com duração maior ou igual a 0,04 segundos, considerando-se este sinal como positivo para IM. A utilização do eletrocardiograma em ritmo sinusal para o diagnóstico de IM em nosso estudo levou a uma estimativa de sensibilidade em torno de 86% e uma especificidade de 91%.Como conseqüência direta destes achados, temos que do ponto de vista do eletrocardiograma em ritmo sinusal havia 31 pacientes supostamente com IM e 15 livres do desfecho. Não obstante, dos 31 supostos pacientes com IM, 30 eram verdadeiros positivos e 1 falso negativo. Por outro lado, dos 15 pacientes supostamente sem IM, havia 5 falsos negativos e 10 verdadeiramente negativos. Tomando o grupo de pacientes supostamente livres de IM, como foco de ação corretiva para diagnóstico do ECG em ritmo sinusal, tem-se a necessidade de reverter uma taxa de falsos negativos de 14% Aplicando-se os critérios diagnósticos de IM no ECG obtido em extra-sístoles verifica-se que, apesar de ocorrer uma queda na especificidade, temos uma estimativa de sensibilidade em torno de 100%. Assim, a utilização combinada do ECG em extra-sístoles seguindo o ECG em ritmo sinusal promove a redução da taxa de falsos negativos de 14% para 0% enquanto que enquanto que a proporção de falsos positivos ficou em torno de 27%. Desta forma, a análise da morfologia das extra-sístoles supraventriculares e ventriculares podem ser de utilidade no diagnóstico de IM quando a morfologia dos batimentos sinusais é não diagnostica
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.