964 resultados para sintático e semântico
Resumo:
A análise de velocidades é um processo fundamental na sísmica de reflexão, onde as velocidades de empilhamento bem como o tempo de trânsito de afastamento nulo (onde supõe-se que a fonte e o detetor ocupam a mesma posição) são parâmetros suficientes na determinação do modelo geológico para meios com camadas horizontais. Por outro lado quando expresso através do formalismo estabelecido por Hamilton, os mesmos parâmetros (velocidade e tempo de afastamento nulo) são suficientes para determinar a função característica para este mesmo tipo de meio. Para o caso de um modelo geológico heterogêneo com interfaces arbitrariamente curvas, a função característica de Hamilton é dada a partir da estimativa de nove parâmetros, onde os mesmos parâmetros são necessários na determinação do modelo geológico em 3D. Este trabalho tem por objetivo estimar os parâmetros que determinam a função característica de Hamilton para meios 3D e estudar a influência de cada parâmetro na função, através de cortes horizontais nas seções de tempos de trânsito (conhecidos como time slices), nas configurações de ponto médio comum e afastamento nulo. Dentro desta abordagem é dado um exemplo a partir de um modelo sintético onde, aqueles resultados obtidos com estudo da influência de cada parâmetro na função característica, são aplicados como um critério de ajuste entre a função característica calculada e a função de tempos de trânsito obtida no levantamento de dados.
Resumo:
A simulação de uma seção sísmica de afastamento nulo (AN) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhor a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda, recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Também, seguindo este novo conceito de imageamento sísmico está surgindo um método para simular seções com afastamento comum (AC) a partir de dados de cobertura múltipla usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento finito. Esta nova aproximação dos tempos de trânsito depende de cinco atributos cinemáticos. Neste trabalho, a partir da aproximação dos tempos de trânsito paraxiais em relação a um raio central com afastamento finito, derivamos uma nova equação do tempo de trânsito usando a condição de um ponto difrator em profundidade, reduzindo a equação original para quatro parâmetros. Para ambas aproximações (reflexão e difração), mostramos a superfície de empilhamento SRC com afastamento finito (SRC-AF). Considerando um modelo sintético, realizamos um estudo comparativo das aproximações dos tempos de trânsito para as quatro configurações sísmicas (fonte comum (FC), receptor comum (RC), ponto-médio-comum (PMC) e afastamento comum (AC)). Para analisar o comportamento do operador SRC-AF, quando este é perturbado, discutimos sua sensibilidade em relação a cada um dos cinco parâmetros (K1, K2, K3, βS e βG). Esta análise de sensibilidade é realizada em duas formas: Sensibilidade através da primeira derivada e Sensibilidade no Empilhamento SRC-AF. Após realizar a análise de sensibilidade utilizamos uma nova condição, K2 = 0 e assim, obtemos uma nova aproximação, agora dependente de três parâmetros. Usando essas aproximações hiperbólicas (em função de cinco, quatro e três parâmetros), propomos um algoritmo para a simulação de seções AC a partir de dados de cobertura múltipla. Finalmente, é apresentado um estudo da zona de Fresnel, com o objetivo de determinar a delimitação da abertura da superfície de empilhamento SRC-AF.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.
Resumo:
O objetivo desta tese foi desenvolver um magnetômetro à precessão nuclear para prospecção geofísica e estações-base magnéticas. O magnetômetro à precessão nuclear mede a intensidade total do campo magnético. Seu funcionamento é baseado na ressonância magnética nuclear. A medida de campo é feita pela de terminação da freqüência de precessão de núcleos de hidrogênio – prótons - de líquidos não viscosos no campo magnético terrestre. O magnetômetro é constituído de duas partes: o sensor e o instrumento de medida. O sensor é uma bobina solenoidal, cujo núcleo é preenchido com o líquido. Três líquidos diferentes foram testados; água, propanol e um querosene sintético. Optou-se pelo uso do querosene porque oferece maior amplitude no sinal de precessão, dando, conseqüentemente, maior relação sinal/ ruído. O sistema de medida contém os circuitos de sintonia e amplificação do sinal e, os circuitos lógicos para a programação da operação e contagem da freqüência de precessão. Cada ciclo de medida tem duração de 3 segundos, sendo 2,3s para a polarização e 0,7s para a recepção do sinal. São possíveis dois modos de operação: manual, reciclando automaticamente e por controle remoto. O sinal de precessão é amplificado seletivamente em uma das 14 faixas de sintonia, que cobrem medidas entre 22000 e 95000 gammas. A freqüência de precessão é multiplicada por um fator de 64 e contada durante um tempo igual a 0,36699s, determinado com base na razão giromagnética do próton. O número de pulsos contados é numericamente igual ao valor do campo magnético em gammas. A resposta pode ser lida em mostradores digitais ou na saída BCD paralela quando operando por controle remoto. A precisão da medida é de 1 gamma. O instrumento foi testado no campo para avaliar a relação sinal/ruído, gradiente suportável e consumo de potência. Nos testes de aplicação do protótipo, foram obtidos dados de variação diurna e realizaram-se levantamentos magnético de reconhecimento e detalhe em um sítio arqueológico na Ilha de Marajó, Pará. As respostas dos testes foram comparados com dois magnetômetros comerciais - o GP-70, McPhar e o G-816, Geometrics e, ainda, com dados do Observatório Magnético de Tatuoca-Pa. Em todos os casos, a comparação dos dados mostrou bom desempenho do magnetômetro em teste.
Resumo:
A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.
Resumo:
O texto da Lei 9.795/99, que institui a educação ambiental e estabelece a Política Nacional de Educação Ambiental é uma resposta do Estado brasileiro aos anseios das comunidades tradicionais, que dependem diretamente dos recursos naturais, tais como indígenas, ribeirinhos e quilombolas. Este trabalho teve como objetivo central a identificação nessa Lei de interesses outros, que não só permeiam o texto como são mesmo predominantes. Para tanto, foi necessário analisar o texto da Lei como o ambiente propício para o conflito de interesses, aqui identificados como ideológicos e como esses interesses se manifestam na forma discursiva. A Lei foi estudada na particularidade de cada artigo a fim de detectar, em cada um, as escolhas linguísticas, a situação concreta de enunciação configurada e o discurso ideológico predominante. Houve preferência por formas nominais, aquelas com maior carga semântico-conceitual, inclusive em formas derivadas de processos verbais. Houve muita variedade na configuração da situação enunciativa, com predomínio do caráter imperativo, como em determinações e atribuições. No plano ideológico, propriamente dito, predominou o discurso conservador, vinculado ideologicamente aos interesses da classe dominante. Outro discurso bastante sentido no texto foi o reformista, próprio dos grupos mediadores dos conflitos entre dominantes e dominados. Uma vez que a Lei atende pouco ou nada aos interesses daqueles mais a aguardavam, conclui-se que a classe dominante consegue absorver as demandas sociais, mas transformando-as para seu próprio benefício. E visto que, por seus interesses serem postos na forma de lei, adquirem caráter universal e, como tal, é imposto para todos, como se fossem de todos, embora representem, de fato, apenas os interesses de alguns.
Resumo:
A Indústria Farmacêutica utiliza polímeros em forma de nanopartículas em formulações de liberação controlada e vetorizada por possuírem baixo custo em relação a demais métodos de preparações de formas farmacêuticas, aparentemente não serem reconhecidos pelo sistema de defesa do organismo, proporcionar melhora da eficácia, diminuição da toxicidade e da dose de fármaco administrado. O sulfato de condroitina-co-Nisopropilacrilamida (SCM + NIPAAm) é um copolímero proposto para este fim, a partir da reação de um polímero sintético, o poli N-isopropilacrilamida (PNIPAAm), com características termossensíveis, com um natural, o Sulfato de Condroitina (SC), com características bioadesivas. Assim, a copolimerização pode ser capaz de somar estas propriedades e aperfeiçoar o seu uso como um veículo para liberação controlada. Este trabalho objetivou, portanto, realizar a caracterização fisico-quimica das partículas de sulfato de condroitina e Nisopropilacrilamida e do copolímero SCM+NIPAAm (2,5 % e 5%) e do SCM+PNIPAAm 2,5% e uma avaliação toxicológica parcial de um destes copolímeros que apresentar as melhores propriedades de um eficiente carreador de fármacos, selecionado a partir dos ensaios de caracterização físico-química. Para determinar a estrutura química dos sistemas particulados e analisar os seus componentes químicos, foi realizada a Espectroscopia de Ressonância Magnética Nuclear (RMN) e Espectroscopia do Infravermelho com Transformada de Fourrier (FTIR); Para analisar a morfologia das partículas, foi usado a Microscopia Eletrônica de Varredura (MEV); A Termogravimetria/ Termogravimetria Derivada e Análise Térmica Diferencial (TG/DTG) foi usada para avaliar o comportamento térmico dos sistemas particulados, bem como auxiliar na análise de Cinética de Degradação (CD, método de Flynn-Wall-Ozawa); Foi ainda realizado a técnica de degradação in vitro e a determinação carga superficial e tamanho de partículas (análise do Potencial Zeta, PZ). Para avaliar a toxicidade, foi realizado o bioensaio em microcrustáceo Artemia salina (24 e 48 h), viabilidade celular (citotoxicidade) em células PC-12 (método do MTT) e também a toxicidade aguda oral em camundongos. As análises de RMN, FTIR e MEV demonstraram semelhança quanto ao aspecto estrutural e morfológico entre os copolímeros estudados. As análises de TG demonstraram que o SCM+NIPAAm 5% apresentou maior estabilidade térmica em relação aos demais copolímeros avaliados, uma vez que sua decomposição polimérica ocorre em temperaturas superiores, em torno de 233ºC. O DTA demonstrou valores de temperaturas concordantes com os eventos térmicos de decomposição apresentados pelas curvas das análises TG. Sua estabilidade foi confirmada através da CD e estudo de degradação in vitro, apresentando, respectivamente, Ea > 100 kJ mol-1 e perda de 48% da sua massa inicial após três meses. Além disso, SCM+NIPAAm 5% apresentou diâmetro de partícula inferior a 200 nm e índice de polidispersão de 0,35, além do PZ > -30mV, caracteristicas de um promissor candidato a carreador de fármacos. Em relação às avaliações toxicológicas, o SCM+NIPAAm 5% não apresentou toxicidade no bioensaio de A. salina (CL50 > 1000) e no modelo celular avaliado, dentro das concentrações e circunstâncias de exposição estudadas. O SCM+NIPAAm 5%, na dose oral de 2000 mg/kg, não apresentou nenhum sinal evidente de toxicidade em camundongos, o que foi corroborado pela ausência de alterações anatomo-histopatológicas. A copolimerização do Sulfato de Condroitina e N-isopropilacrilamida na concentração estudada, dada suas características físico-químicas e toxicológicas preliminares, apresenta propriedades que contribuem para a proposta de um sistema que constitui uma nova forma de liberação controlada, especialmente de fármacos.
Resumo:
A presente pesquisa parte do pressuposto de que, no Brasil, não se segue uma teoria consistente da decisão penal. Tem por finalidade desenvolver argumentos para demonstrar que a epistemologia garantista de Luigi Ferrajoli apresenta problemas que a afastam do mundo prático e dificultam a construção de fundamentos para impor limites ao poder do juiz criminal. Embora se preocupe bastante com o relativismo interpretativo, propondo uma técnica de formalização da linguagem para reduzir os espaços de incerteza, a teoria do garantismo ainda admite uma margem insuprimível de discricionariedade (sempre pro reo). A proposta da tese é a superação desse modelo semântico de percepção do Direito por uma compreensão hermenêutica do fenômeno. A partir da hermenêutica filosófica (Hans Georg Gadamer) e da teoria do Direito como integridade (Ronald Dworkin), a pesquisa defende a hipótese de que o Direito não é fruto de descobertas (convencionalismo), tampouco de invenções (pragmatismo). Não está, pois, escrito em algum lugar do passado, também não é aquilo que os juízes pensam que ele é; o Direito é uma prática social interpretativa, é fruto da melhor argumentação moral possível. A partir da articulação de conceitos caros a Gadamer (tais como estrutura prévia da compreensão, fusão de horizontes, tradição, diálogo, experiência, finitude e linguagem) com a análise da integridade em Dworkin, a pesquisa – sem a pretensão de corrigir a epistemologia garantista, mas objetivando superar os entraves que uma teoria semântica do Direito pode causar – apresenta a hermenêutica como uma via privilegiada para o controle da decisão penal.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Química - IQ
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)