743 resultados para Inversão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve, por objetivo, corrigir a magnitude dos óbitos registrados por câncer do colo do útero no Brasil, e analisar a magnitude da mortalidade por este câncer e sua associação com indicadores sociais, nos estados da região Nordeste, Brasil, no período compreendido entre 1996 a 2005. Para a correção do sub-registro, foram utilizados os fatores criados pelo Projeto Carga Global de Doença no Brasil-1998. Metodologia de redistribuição proporcional foi utilizada para redistribuir as categorias de diagnósticos desconhecidas, incompletas ou mal definidas de óbitos identificadas no sistema de informação sobre mortalidade, exceto os dados ausentes de idade, corrigidos através de imputação. As correções foram aplicadas para cada Unidade Federativa do pais, segundo sexo e grupo etário, e os resultados apresentados para o Brasil e cada grande região e suas respectivas áreas geográficas (capital, demais municípios das regiões metropolitanas e interior). Tendências temporais de mortalidade foram analisadas através de regressão linear simples para cada estado da região Nordeste. Índice de variação percentual foi utilizado para determinar a variabilidade da magnitude das taxas, antes e após a correção dos óbitos. Através de regressão linear, foram analisados o comportamento da correção, e as correlações entre os indicadores socioeconômicos e as taxas de mortalidade por câncer do colo de útero sem e com correção. Após as correções, as taxas de mortalidade por câncer do colo do útero no Brasil mostraram um acréscimo percentual 103,4%, com variação de 35%, para as capitais da região Sul, a 339%, para o interior da região Nordeste. Foram encontradas correlações positivas entre alguns indicadores socioeconômicos e taxas sem correção, e correlações negativa entre esses mesmos indicadores e taxas corrigidas. Com outros indicadores socioeconômicos, observou-se o inverso dessa situação. Os resultados da correção apresentaram consistência em termos geográficos e em relação aos achados da literatura, permitindo concluir que a metodologia proposta foi adequada para corrigir a magnitude das taxas de mortalidade por câncer do colo do útero no país. Se analises comparativas sobre as condições socioeconômicas e o comportamento deste câncer forem estimadas sem quaisquer conhecimentos acerca da cobertura e qualidade de registro dos óbitos, pode-se incorrer a conclusões equivocadas. Considerando a magnitude corrigida da mortalidade por câncer do colo do útero, podemos afirmar que o problema desta doença na região Nordeste e no país, e mais grave do que o observado nos informes oficiais. Contudo, os resultados apontam que os programas de controle e detecção precoce desenvolvidos no país já mostram resultados positivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A satisfação alcançada no casamento influencia fortemente a qualidade de vida. Por outro lado, conflitos conjugais estão relacionados a problemas de saúde, a violência e ao divórcio. Mesmo com as dificuldades inerentes a qualquer relacionamento conjugal, o matrimônio parece ser ainda um desejo a ser realizado por muitos. Porém, para que o relacionamento seja uma fonte de felicidade e resulte em uma relação satisfatória, os cônjuges precisam investir no desenvolvimento constante de habilidades para que assim possam lidar com as adversidades geradas pela vida a dois. Estudos apontam que a capacidade de ouvir e compreender, bem como de demonstrar sensibilidade frente às necessidades dos outros (empatia) constitui um dos fatores importantes para um casamento feliz, na medida em que, ao se sentir ouvido e compreendido, o cônjuge se sente mais seguro e valorizado. No entanto, ainda não está claro, se o cônjuge que manifesta empatia (empatia manifestada) experimenta tanta satisfação conjugal quanto aquele que a recebe (empatia recebida). Esse estudo investigou o valor preditivo da expressão de empatia sobre a satisfação no casamento. Foram utilizadas três medidas de auto-informe: Escala de Satisfação Conjugal (ESC-Dela Coleta, 1989), medição da satisfação conjugal; Inventário de Empatia (IE-Falcone & cols., 2008), que avalia a empatia geral; Questionário de Empatia Conjugal (QEC-Oliveira, Falcone & Ribas Jr, 2009) que avalia a empatia conjugal, sendo este último adaptado para tornar-se um questionário de auto-informe. Todos os questionários foram respondidos por 108 indivíduos casados ( 69 do sexo feminino e 39 do sexo masculino). Através da Análise de Regressão Múltipla, onde a medida de satisfação conjugal foi a variável dependente e os cinco fatores correspondentes às duas medidas de empatia foram as variáveis independentes. Verificou-se que a expressão da empatia conjugal foi preditiva da satisfação conjugal em suas três dimensões: 1) Interação conjugal (IC); 2) Aspectos emocionais (AEm) e 3) Aspectos estruturais (AEs). Dentre os fatores do IE, a Sensibilidade Afetiva (SA) foi preditiva, no sentido inverso (r= -0.23 e p<0.05), dos Aspectos Emocionais (AEm) da ESC. No que diz respeito ao IE e a relação de seus fatores com o QEC, a Tomada de Perspectiva (TP) e a Sensibilidade Afetiva (SA) apresentaram correlações moderadas e significativas (r=.38 e p<.001 e r=.35 e p<.001, respectivamente). Espera-se que esse estudo possa contribuir para a construção de programas visando desenvolver empatia em indivíduos casados, facilitando a comunicação e a satisfação no casamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O escopo deste trabalho é investigar a natureza e as funções dos ônus de argumentação em suas relações com o sistema jurídico e com a argumentação jurídica. O pano de fundo para o desenvolvimento dessas análises é o triplo condicionamento do direito. De acordo com essa visão, o direito e a argumentação jurídica são condicionados extrínseca, intrínseca e institucionalmente. Nesse cenário, defende-se, por um lado, que os ônus argumentativos são componentes necessários de um sistema jurídico que compreende regras e princípios. Analisados estruturalmente, os ônus argumentativos são compreendidos, por outro lado, como efeitos de regras e standards que consolidam relações de prioridade normativas. A partir dessas relações, defende-se que ônus de argumentação são mecanismos de redução e controle da incerteza que caracteriza necessariamente a subidealidade do sistema jurídico ao (i) facilitarem a manutenção das relações de prioridade que os sustentam na solução de casos concretos, (ii) dificultarem a inversão dessas relações e (iii) instituírem pontos de parada na argumentação jurídica em situações nas quais o desenvolvimento de cadeias argumentativas não é capaz de garantir se, em determinado caso concreto, certa relação de prioridade deve ser mantida ou invertida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las dos últimas décadas, en el territorio histórico de Bizkaia al igual que en otras muchas zonas, se observa un fenómeno de expansión de la ciudad hacia sus entornos más próximos primero, y más alejados después. En el espacio de estudio, en concreto, se trata de movimientos migratorios con origen en una zona urbana como es el Gran Bilbao y con destino las zonas rurales adyacentes a la misma. Sin embargo, no todas las zonas limítrofes muestran el mismo grado de atracción, mientras unas se han revelado como focos de atracción residencial, otras han conocido el proceso inverso. En este estudio se profundiza en el tema, a partir del análisis de las variables más relevantes que explican el fenómeno, tanto socio-demográficas, económicas, residenciales como urbanísticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas estruturais em suas variadas aplicações incluindo-se veículos espaciais, automóveis e estruturas de engenharia civil tais como prédios, pontes e plataformas off-shore, acumulam dano durante suas vidas úteis. Em muitas situações, tal dano pode não ser visualmente observado. Do ponto de vista da segurança e da performance da estrutura, é desejável monitorar esta possível ocorrência, localizá-la e quantificá-la. Métodos de identificação de sistemas, que em geral, são classificados numa categoria de Técnicas de Avaliação Não-Destrutivas, podem ser utilizados para esta finalidade. Usando dados experimentais tais como frequências naturais, modos de vibração e deslocamentos estáticos, e um modelo analítico estrutural, parâmetros da estrutura podem ser identificados. As propriedades estruturais do modelo analítico são modificadas de modo a minimizar a diferença entre os dados obtidos por aquele modelo e a resposta medida. Isto pode ser definido como um problema inverso onde os parâmetros da estrutura são identificados. O problema inverso, descrito acima, foi resolvido usando métodos globais de otimização devido à provável presença de inúmeros mínimos locais e a não convexidade do espaço de projeto. Neste trabalho o método da Evolução Diferencial (Differential Evolution, DE) foi utilizado como ferramenta principal de otimização. Trata-se de uma meta-heurística inspirada numa população de soluções sucessivamente atualizada por operações aritméticas como mutações, recombinações e critérios de seleção dos melhores indivíduos até que um critério de convergência seja alcançado. O método da Evolução Diferencial foi desenvolvido como uma heurística para minimizar funções não diferenciáveis e foi aplicado a estruturas planas de treliças com diferentes níveis de danos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença pulmonar obstrutiva crônica (DPOC) causa a redução da capacidade respiratória e seu desenvolvimento é associado à fumaça de cigarro. O cigarro possui mais de 4800 substâncias tóxicas e causa a morte de seis milhões de pessoas por ano no mundo. Estudos buscam meios de reverter os males causados pela fumaça de cigarro. A própolis (P) é um produto produzido por abelhas que possui várias propriedades. O objetivo deste trabalho foi avaliar os efeitos antioxidantes da P em macrófagos murinos e na inflamação pulmonar aguda induzida pela fumaça de cigarro (CS) em camundongos. A análise dos compostos fitoquímicos do extrato alcóolico da P (EAP) foi feita por cromatografia gasosa acoplada à espectrometria de massa (GC-MS). Células da linhagem RAW 264.7 foram tratadas em diversas concentrações de P durante 24 horas. Após tratamento, as seguintes análises foram realizadas: polifenóis totais; viabilidade celular (MTT); potencial redutor (DPPH); espécies reativas de oxigênio totais (ROS) e de malondialdeído (MDA). Trinta camundongos C57BL/6 foram divididos em 3 grupos (n=10/grupo): Controle+P, CS e CS+P. Ambos os grupos CS foram expostos a 6 cigarros/dia durante 5 dias. O grupo CS foi tratado com veículo. O pulmão e o lavado broncoalveolar (BAL) foram coletados para análise histológica e contagem diferencial de células. As análises para mieloperoxidase (MPO), superóxido dismutase (SOD), catalase (CAT), glutationa peroxidase (GPx), glutationa reduzida (GSH) e oxidada (GSSG), MDA, nitrito e western blotting para TNF-alfa foram realizadas. A análise fitoquímica do EAP mostrou a presença dos ácidos hidrocinâmicos e coumárico, a artepilina C e a drupanina. Foi observado o aumento concentração-dependente dos níveis de polifenóis totais (p<0,001), do MTT (p<0,001) e do DPPH (p<0,001), e o inverso com o MDA (p<0,001). Os níveis de ROS diminuem nas concentrações de 15,6 e 31,2 mg/mL (p<0,05, ambos). A histologia pulmonar do grupo Controle+P foi similar ao do CS+P e foi observado um influxo de macrófagos e neutrófilos no grupo CS (p<0,01 e p<0,001, respectivamente). Os níveis de MPO foram aumentados no grupo CS (526,534,72 mU/mg ptn, p<0,01), mas houve uma redução no grupo CS+P (385,127,64 mU/mg ptn, p<0,05) comparável ao Controle+P (13412,99 mU/mg ptn, p<0,001), o mesmo aconteceu com as enzimas antioxidantes: SOD (Controle+P: 523,529,6 U/mg ptn; CS: 523,529,6 U/mg ptn, p<0,001; CS+P: 246,815,69 U/mg ptn, p<0,001); CAT (Controle+P: 37,383,39 U/mg ptn; CS: 92,686,24 U/mg ptn, p<0,001; CS+P: 59,844,55 U/mg ptn, p<0,05); GPx (Controle+P: 2,230,17 (M/min/mg ptn) x 10-1; CS: 4,510,31 (M/min/mg ptn) x 10-1, p<0,001; CS+P: 2,640,19 (M/min/mg ptn) x 10-1, p<0,05). O inverso ocorreu com a relação GSH/GSSG (Controle+P: 1,0880,17; CS: 0,7360,07, p<0,05; CS+P: 1,2580,10, p<0,05). Os níveis de MDA (Controle+P: 0,2660,05 nMol/mg ptn; CS: 0,940,076 nMol/mg ptn, p<0,001; CS+P: 0,4980,06 nMol/mg ptn, p<0,01) e de nitrito (Controle+P: 50,014,19 Mol/mg ptn; CS: 108,77,73 Mol/mg ptn, p<0,001; CS+P: 58,843,42 nMol/mg ptn, p<0,01) estavam aumentados no CS que em outros grupos. A expressão de TNF-α foi observada no grupo CS. O tratamento da P apresentou ação anti-inflamatória e antioxidante em macrófagos e em camundongos expostos à fumaça de cigarro, possivelmente pela ação dos polifenóis presentes nela

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio surge tras identificar la creciente irrupción de “plataformas vecinales independientes” en Euskadi a partir de los años 90; un actor político que cada día obtiene mayor nivel de representatividad y logra más alcaldías en el ya de por sí complicado mapa político vasco. Sin embargo, dada la abundancia de “plataformas vecinales independientes” y las limitaciones de presupuesto y tiempo, esta investigación focalizará su atención en aquellas que hayan alcanzado la makila, siendo la unidad de análisis las “plataformas vecinales independientes” gobernantes entre 1991 y 2015 en Euskadi. Las apreciaciones terminológicas son importantes, puesto que no todas las candidaturas que concurren con siglas ajenas a los grandes partidos deben ser consideradas “plataformas vecinales independientes”. Así las cosas, el primer objetivo de este trabajo es sugerir un modelo terminológico que permita clasificar la complejidad de las diversas agrupaciones electorales vascas; esto es, proponer un criterio de definición y clasificación que permita dividir en subcategorías la heterogeneidad de agrupaciones electorales tomando como referencia el esquema realizado por Gemma Ubasart en el caso catalán, aunque sometiendo el mismo a revisión y adaptación a la CAV para su posterior análisis. Este trabajo tiene además un segundo objetivo: identificar qué tipo de actor colectivo conforman las “plataformas vecinales independientes” vascas, teniendo en cuenta la dificultad de acoplar la unidad de análisis del trabajo en el esquema clásico de Ciencia Política que divide los actores en tres tipos: partidos políticos, grupos de interés y movimientos sociales. Para ello -tras la revisión de la bibliografía existente, los estudios específicos realizados por Ubasart y los resultados obtenidos a partir del trabajo de campo- esta investigación aspira a realizar una aportación teórica interesante: invertir el argumento de los/as teóricos/as de la institucionalización y proponer un proceso de cuasi-movimentización en que las “plataformas vecinales independientes” transitarían de una configuración inicial partidista hacia un modelo más cercano a las características propias de los movimientos sociales. Sin embargo, a pesar de la innovación de esta propuesta, el estudio es exploratorio –aunque con vocación de devenir en descriptivo en un futuro- por lo que ninguna de las conclusiones y hallazgos se presentan como definitivos, sino como el punto de partida hacia debates interesantes –sí- pero abiertos a la revisión y la refutación; es por ello que la presente investigación no aspira a descubrir nuevos horizontes, sino a dibujar posibilidades que susciten nuevas preguntas. Todo ello viene motivado por la cobertura de una laguna de conocimiento muy profunda que se observa tras el análisis de la bibliografía existente, ya que no hay investigaciones que describan, expliquen o analicen la irrupción y crecimiento de las “plataformas independientes vecinales” a nivel local en Euskadi (1991-2015). Si bien es cierto que Gemma Ubasart ha dedicado sendos estudios al municipalismo alternativo y popular en Cataluña, su unidad de análisis no presenta las mismas características que la del presente estudio; ni tampoco el fenómeno que se analiza es mimético –más bien inverso- a lo que hay que añadir la propia delimitación espacial, ya que el caso catalán no es extrapolable al vasco a pesar de que su marco analítico pueda ser tomado como referencia y revisado. Hay que subrayar que el componente original y novedoso intrínseco al tema de esta investigación viene acompañado por el factor de rabiosa actualidad, ya que los recientes resultados de las Elecciones Municipales y Forales vascas de 2015 se han presentado como una excepcional ocasión para reflexionar desde la Academia en torno a este actor político; de hecho, los resultados de los comicios han otorgado aún más sentido al planteamiento de la hipótesis de trabajo y reforzado la idea de emergencia y crecimiento de las “plataformas vecinales independientes”. Se trata además de un actor político que, por otro lado, se inscribe en el marco de un contexto interesante para los/as estudiosos/as de Ciencia Política, ya que la actual coyuntura sociopolítica no hace sino ser testigo de la emergencia de nuevos actores políticos que cada día son más difíciles de identificar, encajar y adecuar a antiguos esquemas rígidos que dividen nítidamente a partidos políticos, grupos de interés y movimientos sociales. En este sentido, la institucionalización del movimiento social 15-M para devenir en un partido como Podemos ha agitado estos cimientos, pero también otros fenómenos menos conocidos y convencionales como el que se analiza en el presente trabajo, donde en vez de institucionalización creemos se ha dado un proceso inverso de cuasi-movimentización. Por último, esta investigación se presenta como un reto tanto personal como profesional, ya que supone el punto de partida de lo que se espera sea un intenso y fructífero viaje académico acompañado de un actor colectivo que necesita de definición y análisis. Este proyecto -sin embargo- no hubiera sido posible sin contar especialmente con la ayuda del director de la investigación, Igor Ahedo, por su implicación y aportaciones, por poner luz en momentos de estancamiento y por creer en el proyecto cuando las dudas se cernían sobre él.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, pretende-se identificar o funcionamento do adjetivo qualificador como elemento capaz de estabelecer e modificar comportamento (s). Nossa hipótese inicial é a de que Nelson Rodrigues (2007) explora a capacidade que apresenta a subclasse qualificador para estabelecer o diálogo com o interlocutor. Constataremos, a partir da análise de sintagmas nominais compostos, em sua maioria, por substantivo abstratoadjetivo, que o adjetivo não só desfaz a abstração presente no substantivo, como também influencia no encaminhamento da proposta a ser compartilhada entre os sujeitos do discurso. Observaremos a relevância do nome para o projeto de argumentação, visto que Nelson Rodrigues estrutura enunciados em que a alternância entre substantivos e adjetivos do mesmo campo lexical é recorrente. Analisaremos a seleção dos adjetivos como recurso utilizado pelo comunicador com vistas à mudança comportamental do interlocutor. Percorreremos a teoria da argumentação a partir de Aristóteles no que se refere à preocupação com a elaboração da forma para construir significado. Constataremos, com base na análise dos sintagmas organizados por Rodrigues, que a seleção lexical, a inversão de estruturas, o rompimento com a norma, todo recurso é válido para a concretização do projeto de fala do escritor