956 resultados para equação de predição
Resumo:
Esta tese focaliza como tema principal a representação social da confiança. Qual a importância da confiança para a sociedade contemporânea, para as organizações de produção e para as relações interpessoais. A fundamentação teórica é a Teoria das Representações Sociais tomada em sua equação: representação = figura/significado. A metodologia da pesquisa consistiu na realização de grupos focais e na expressão imagética e verbal da confiança. A análise dos textos visuais conjuntamente com os verbais possibilitou uma percepção bastante acurada desta representação social.
Resumo:
Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.
Resumo:
Estima-se que a prevalência global da população mundial com hepatite C é de 3%. Pouco se sabe sobre a resposta ao tratamento com respeito à resistência viral. Algumas mutações no fragmento de 109 aminoácidos da NS5B são associadas com resistência ao interferon (IFN) e ribavirina (RBV). Estudos moleculares e clínicos identificaram fatores associados com o hospedeiro e vírus relacionados associada com a resposta ao tratamento, tal como o gene que codifica a IL-28B. Este estudo foi dividido em duas fases, cujos objetivos foram caracterizar a frequência de mutações que conferem resistência ao HCV e avaliar a relevância das mutações em pacientes Respondedores (R) ou Não Respondedores (NR) ao tratamento e caracterizar geneticamente as populações sobre polimorfismos genéticos nos SNPs da IL-28B em relação ao prognóstico da resposta ao tratamento. As amostras dos pacientes foram submetidas a testes de genotipagem e carga viral. As sequências geradas foram comparadas no BLAST e no banco de dados Los Alamos HCV. Realizamos o alinhamento das sequências homólogas e as mutações identificadas. Com base no genótipo e carga viral determinamos a classificação dos pacientes de acordo com a resposta à terapia. O DNA genômico foi isolado a partir de sangue periférico para a realização da tipagem de SNPs de IL-28B. A metodologia utilizada foi de PCR em tempo real utilizando sondas TaqMan SNP específico. A análise dos dados foi realizada utilizando GraphPad Prism com qui-quadrado, risco relativo (RR), Odds Ratio (OR) e intervalo de confiança de 95%, com um nível de significância de P <0,05. Foi encontrado na primeira fase deste estudo uma taxa significativa mutações associadas ao tratamento nas amostras estudadas. A prevalência de mutações associadas à resistência ao IFN e RBV bem como a novos medicamentos antivirais localizados no fragmento de 109 aminoácidos da NS5B foi examinado em 69 indivíduos infectados naïve no Rio de Janeiro, Brasil. Na segunda fase, as mutações foram clinicamente relevantes. Desde então, procuramos observar as diferenças entre melhor ou pior prognóstico de acordo com a imunogenética que mostrou diferenciação entre os grupos R e NR ao tratamento em relação ao prognóstico da resposta terapêutica. Quando as diferenças entre as sequências da NS5B e a resposta ao tratamento foram consideradas verificou-se que associada a mutação R254K, estava a C316N que poderia conduzir a uma não resposta à terapia no genótipo 1b. Os nossos dados também suportaram forte associação de IL-28B rs12979860, com elevada probabilidade de resposta à terapia de IFN + RBV. Nossos dados evidenciam a presença de pacientes virgens de tratamento que abrigam mutações de resistência previamente descritas na literatura. A análise dos fatores preditores de resposta virológica mostrou que a predição de boa resposta ou não ao tratamento e ainda da progressão da doença é dependente de uma importante interação entre a genética viral e a do hospedeiro. Fato este importante para que no momento de avaliação de diagnóstico e conduta terapêutica, o médico possa tomar medidas apropriadas para o tratamento de cada paciente individualmente independentemente do genótipo do HCV em questão.
Resumo:
As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.
Resumo:
Juntas coladas têm se mostrado como a principal alternativa de união entre componentes fabricados em materiais distintos ou não, tendo como vantagem principal a ausência de aporte de calor e melhor distribuição de tensões. A literatura mostra que estudos anteriores foram realizados com o objetivo de caracterizar diversas propriedades associados às juntas, porém, pouco ainda se conhece sobre o comportamento dessas uniões relacionado à fluência. Os ensaios de fluência têm como principal desvantagem a baixa produtividade de resultados visto que, na maioria dos casos, os equipamentos aptos a realizarem este tipo de teste ensaiam apenas um corpo de prova por vez. Neste caso, o tratamento estatístico é baseado em uma pequena quantidade de resultados, reduzindo a confiabilidade na predição do comportamento em fluência. O Laboratório de Adesão e Aderência (LAA/UERJ/IPRJ) desenvolveu o equipamento pneumático de fluência (EPF) capaz de realizar dez ensaios simultâneos com parâmetros distintos. Este trabalho investiga o comportamento de juntas de cisalhamento simples (SLJ) compostas por substratos metálicos colados com adesivo epóxi e poliuretano. As juntas foram fabricadas em conformidade a norma ASTM D 1002, seguindo procedimento de preparo RT-003/08 TMC/CENPES/PETROBRAS. Os resultados mostram que, para projetos onde esteja prevista utilização das juntas durante longos períodos de tempo sob carregamento, conhecer apenas suas tensões médias de ruptura não é o suficiente para garantir a segurança do empreendimento. É proposto um modelo inicial do comportamento sob fluência de juntas coladas.
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.
Resumo:
O contexto do estudo é a predição da anemia fetal em gestantes portadoras da doença hemolítica perinatal e tem como objetivo avaliar a acurácia da medida doppler velocimétrica da velocidade máxima do pico sistólico da artéria cerebral média na detecção da anemia fetal na doença hemolítica perinatal. A identificação dos estudos foi realizada com a adoção de bancos de dados gerais (MEDLINE e LILACS) e a partir de referências bibliográficas de outros autores. Os estudos selecionados tinham como critérios serem do tipo observacionais, com gestantes apresentando coombs indireto maior do que 1:8, técnica de insonação do vaso adequada, Vmax-ACM ≥ 1,5MOM, presença obrigatória de comparação com o padrão-ouro (hemoglobina fetal e/ou neonatal), e nível de evidência diagnóstica acima ou igual a 4. Os dados dos estudos selecionados foram alocados em tabelas 2x2 comparando o resultado do teste com o padrão-ouro. A acurácia diagnóstica foi expressa principalmente através da razão de verossimilhança. A revisão incluiu onze estudos, com uma amostra total de 688. Três estudos apresentaram delineamento do tipo prospectivo e nível de evidência diagnóstica categoria 1. A performance do teste em questão apresentou variação razoável. O estudo de Mari et al (2000) foi considerado o de melhor qualidade metodológica, apresentando uma RV(+) de 8,45 e uma RV(-) de 0,02. A medida do doppler da Vmax da ACM como preditor da anemia fetal na doença hemolítica perinatal está consolidada. Porém, alguns pontos precisam ser melhor esclarecidos, como o intervalo ideal dos exames em casos graves e a validade do método em fetos que já foram submetidos a transfusões intra-uterinas.
Resumo:
Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas
Resumo:
O contexto da modernização reflexiva leva ao questionamento sobre o papel das instituições tradicionais, notadamente o Poder Executivo. É possível pressupor que o modelo da sociedade de risco se reflete em alterações no direito e na economia do Brasil. Os riscos tornaram-se uma constante e exigem substituições nas formas de atuação social, o que Ulrich Beck denomina de subpolítica. A mudança é sentida especialmente em setores centrais para economia, tais como o de petróleo e gás, enquanto os riscos globais são sentidos na crise ambiental. Uma vez que as instituições, na Sociedade de Risco, são levadas a rever sua atuação, o empresariado recebe a tarefa de encontrar mecanismos para superar a crise ambiental. A responsabilidade socioambiental da empresa passa a ser exigida como contrapartida pelos lucros obtidos, especialmente para atividades potencialmente poluentes, como a petrolífera. O princípio da precaução, o desenvolvimento sustentável e a equação financeira do contrato podem ser vetores para a adoção da responsabilidade socioambiental pela indústria petrolífera. Mas para que esta possa ser vista como uma nova razão pública deve se demonstrar que ela pode motivar a evolução da sociedade como um todo. A Rio+20 definiu a economia verde como uma nova meta, principalmente para as atividades potencialmente poluentes. O objetivo central do trabalho é investigar a regulação das empresas de petróleo e gás, especialmente sobre a possibilidade de adoção da responsabilidade socioambiental. Ressalte-se que esta visa impor medidas de conservação e ações pró meio ambiente, além daquelas já estipuladas por força legal ou pelo licenciamento ambiental. A pesquisa visa apresentar possíveis soluções para os questionamentos acima, garantindo segurança jurídica para empresas de petróleo e gás, mas ao mesmo tempo visando ampliar a sustentabilidade do setor, propondo novas regras que podem ser adotadas nos editais de licitação e nos contratos de concessão e partilha de produção. Em um momento que se debate a possibilidade de direcionamento dos royalties do petróleo exclusivamente para a educação o estudo de medidas jurídicas para implementar a responsabilidade socioambiental no setor petrolífero torna-se ainda mais necessária.
Resumo:
É conhecido que derivações microscópicas obtidas através de métodos de teoria quântica de campos (TQC) podem conduzir a complicadas equações de movimento (EdM) que possuem um termo dissipativo com memória e um termo de ruído colorido. Um caso particularmente interessante é o modelo que escreve a interação entre um sistema e um banho térmico a temperatura T. Motivado por isso, usamos uma prescrição que nos permite reescrever EdMs não-markovianas semelhantes as obtidas em TQC em termos de um sistema de equações locais, para então confrontarmos a solução desse sistema com a solução aproximada usada correntemente na literatura, a chamada aproximação markoviana. A pergunta chave a qual se pretende responder aqui é: dado um conjunto de parâmetros que descrevem o modelo, a aproximação markoviana é suficientemente boa para descrever a dinâmica do sistema se comparada a dinâmica obtida atravéS da EdM não-markoviana? Além disso, consideramos uma versão linear da ELG de forma que pudéssemos determinar o nível de confiança da nossa metodologia numérica, procedimento este realizado comparando-se a solução analítica com a solução numérica. Como exemplo de aplicação prática do tema discutido aqui, comparamos a evolução não-markoviana do inflaton com a evolução markoviana do mesmo num modelo de universo primordial denominado inflação não-isentrópica (warm inflation).