67 resultados para probabilidade de superposição


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos envolvendo estimativas de parâmetros populacionais de cetáceos baseados em dados de foto-identificação têm crescido ao longo dos anos, possibilitando estimar parâmetros como abundância, sobrevivência, probabilidade de captura e padrões de emigração. No Brasil, ainda são poucos os estudos com cetáceos que utilizam essa abordagem, contudo, eles estão aumentando, principalmente com a espécie Sotalia guianensis (van Bénéden, 1864), conhecida como boto-cinza. O objetivo desse trabalho foi estimar a sobrevivência, a probabilidade de captura, a emigração e a abundância da população de botos-cinza na Baía de Paraty (RJ; 2307S 4433W), utilizando modelos de marcação-recaptura baseados em dados de foto-identificação, entre os anos de 2005 e 2009. Os cruzeiros foram realizados entre agosto de 2005 e julho de 2009 com uma embarcação de 26 pés e motor de 200hp. As fotografias das nadadeiras dorsais foram tomadas com a utilização de uma câmera digital Canon 20D equipada com lente de zoom 100-400mm. Foram realizadas 60 saídas de campo na Baía de Paraty totalizando 172 horas de esforço no campo, sendo 72 horas de esforço fotográfico. Nas 42 saídas com observação de botos-cinza foram efetuadas 27.892 fotografias e, destas, 6.612 (23,7%) foram consideradas adequadas e utilizadas na identificação dos indivíduos de boto-cinza. Um total de 621 indivíduos foi catalogado com base em marcas permanentes na nadadeira dorsal. Os históricos individuais de captura foram analisados no programa MARK. A estimativa de sobrevivência variou de 0,82 ( 0,05) a 0,85 ( 0,05) e a probabilidade de captura variou de 0,16 ( 0,04) a 0,40 ( 0,06). O número de indivíduos marcados na população estimado pelo modelo de Jolly-Seber foi de N = 586 ( 114,66) (IC: 361-811). A proporção de animais marcados na população para o modelo de JS foi de 0,66 ( 0,03). A partir desse valor, foi possível obter uma abundância total de 884 indivíduos ( 176,8) (IC: 602-1296). A probabilidade de emigração temporária (γ``) e de permanecer fora da área (γ`) foi de 0,43 ( 0,07) e a probabilidade de captura/recaptura variou de 0,01 ( 0,01) a 0,42 ( 0,05). A probabilidade de permanência na área (1 - γ``), assim como a probabilidade de retorno da emigração temporária (1 - γ`) foi 0,57. Apesar dos movimentos significativos de indivíduos transientes, uma vez que a área amostrada é menor do que as áreas de vida que se tem estimadas para o boto-cinza, os dados indicam uma residência moderada dos botos-cinza. A abundância anual total variou de 325 para o ano de 2005 a 448 para o ano de 2009. A análise de poder determinou que seriam necessários nove anos de estudo para observar uma tendência de queda de 5% no tamanho da população. Os resultados reforçam que a Baía de Paraty abriga uma das maiores populações já estimadas para Sotalia guianensis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estima-se que a prevalência global da população mundial com hepatite C é de 3%. Pouco se sabe sobre a resposta ao tratamento com respeito à resistência viral. Algumas mutações no fragmento de 109 aminoácidos da NS5B são associadas com resistência ao interferon (IFN) e ribavirina (RBV). Estudos moleculares e clínicos identificaram fatores associados com o hospedeiro e vírus relacionados associada com a resposta ao tratamento, tal como o gene que codifica a IL-28B. Este estudo foi dividido em duas fases, cujos objetivos foram caracterizar a frequência de mutações que conferem resistência ao HCV e avaliar a relevância das mutações em pacientes Respondedores (R) ou Não Respondedores (NR) ao tratamento e caracterizar geneticamente as populações sobre polimorfismos genéticos nos SNPs da IL-28B em relação ao prognóstico da resposta ao tratamento. As amostras dos pacientes foram submetidas a testes de genotipagem e carga viral. As sequências geradas foram comparadas no BLAST e no banco de dados Los Alamos HCV. Realizamos o alinhamento das sequências homólogas e as mutações identificadas. Com base no genótipo e carga viral determinamos a classificação dos pacientes de acordo com a resposta à terapia. O DNA genômico foi isolado a partir de sangue periférico para a realização da tipagem de SNPs de IL-28B. A metodologia utilizada foi de PCR em tempo real utilizando sondas TaqMan SNP específico. A análise dos dados foi realizada utilizando GraphPad Prism com qui-quadrado, risco relativo (RR), Odds Ratio (OR) e intervalo de confiança de 95%, com um nível de significância de P <0,05. Foi encontrado na primeira fase deste estudo uma taxa significativa mutações associadas ao tratamento nas amostras estudadas. A prevalência de mutações associadas à resistência ao IFN e RBV bem como a novos medicamentos antivirais localizados no fragmento de 109 aminoácidos da NS5B foi examinado em 69 indivíduos infectados naïve no Rio de Janeiro, Brasil. Na segunda fase, as mutações foram clinicamente relevantes. Desde então, procuramos observar as diferenças entre melhor ou pior prognóstico de acordo com a imunogenética que mostrou diferenciação entre os grupos R e NR ao tratamento em relação ao prognóstico da resposta terapêutica. Quando as diferenças entre as sequências da NS5B e a resposta ao tratamento foram consideradas verificou-se que associada a mutação R254K, estava a C316N que poderia conduzir a uma não resposta à terapia no genótipo 1b. Os nossos dados também suportaram forte associação de IL-28B rs12979860, com elevada probabilidade de resposta à terapia de IFN + RBV. Nossos dados evidenciam a presença de pacientes virgens de tratamento que abrigam mutações de resistência previamente descritas na literatura. A análise dos fatores preditores de resposta virológica mostrou que a predição de boa resposta ou não ao tratamento e ainda da progressão da doença é dependente de uma importante interação entre a genética viral e a do hospedeiro. Fato este importante para que no momento de avaliação de diagnóstico e conduta terapêutica, o médico possa tomar medidas apropriadas para o tratamento de cada paciente individualmente independentemente do genótipo do HCV em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A concessão de crédito a empresas que participam do mercado consiste na entrega de um ativo em determinado momento, com a promessa de pagamento deste bem ou direito em data futura. Tal situação se configura como um evento incerto, pois existe a possibilidade de que tal obrigação não seja honrada pela promitente compradora, originando desta forma, o risco de crédito. Cabe à parte concessora do ativo que origina o risco de crédito, verificar a capacidade de seu cliente em cumprir o compromisso futuro assumido, analisando as variáveis que sugerem o sucesso da operação de crédito. As empresas que se encontram em fase de implantação caracterizam-se não somente pela ausência de histórico das variáveis acima, como também pelo aumento considerável do risco de continuidade. Tal situação é comprovada por pesquisas realizadas em empresas com até cinco anos de atuação. A impossibilidade na mensuração da capacidade de crédito proporcionada por este cenário, ocasiona severa restrição creditícia às empresas novas, principalmente ao crédito de longo prazo, imprescindível nesta fase de investimentos. Entretanto, esta restrição não se verifica em empresas de franquia, cujo empreendedor tem o privilégio de iniciar seu negócio com linhas de crédito de investimentos já prontas no mercado com esta finalidade. Este estudo objetiva identificar quais as características presentes em empresas franqueadas que permitem a concessão de crédito segura na fase de implantação por parte das instituições financeiras e se tais características podem discriminar variáveis que são determinantes no sucesso da franqueada proponente ao crédito bancário. A aplicação de análise fatorial em banco de dados com empresas de franquia permitiu identificar com sucesso um grupo de sete principais variáveis principais, que serviram de base a um modelo de regressão logística e análise discriminante. O modelo de regressão logística mostrou-se bom para a melhora da probabilidade de acerto de empresas solventes ao passo que a análise discriminante não apresentou melhora nesses resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os ungulados viventes (Cetartiodactyla e Perissodactyla), nas regiões estudadas, são representados por 11 gêneros e 24 espécies. O presente estudo propõe reconhecer os padrões de distribuição destas espécies, a partir da aplicação do método pan-biogeográfico de análise de traços. Este método auxilia no entendimento a priori dos padrões congruentes de distribuição e numa compreensão de padrões e processos de diferenciação geográfica no tempo e no espaço, reconstruindo a biogeografia de táxons. Em relação a aspectos conservacionistas, o método foi aplicado na identificação de áreas prioritárias para conservação. A aplicação do método consiste basicamente na marcação das localidades de ocorrência dos diferentes táxons em mapas, sendo estas localidades conectadas por intermédio de linhas seguindo um critério de mínima distância, resultando nos chamados traços individuais que foram plotados nos mapas de biomas da América Central e do Sul do programa ArcView GIS 3.2. A superposição destes traços individuais define um traço generalizado, sugerindo uma história comum, ou seja, a preexistência de uma biota ancestral subsequentemente fragmentada por eventos vicariantes. A interseção de dois ou mais traços generalizados corresponde a um nó biogeográfico, que representa áreas compostas e complexas, nas quais se agrupam distintas histórias biogeográficas. Para a análise pan-biogeográfica foi utilizado o software ArcView GIS 3.2 e a extensão Trazos 2004. A partir da superposição dos 24 traços individuais, foram reconhecidos cinco traços generalizados (TGs): TG1, Mesoamericano/Chocó, composto por Mazama pandora, M. temama e Tapirus bairdii; TG2, Andes do Norte (Mazama rufina, Pudu mephistophiles e Tapirus pinchaque); TG 3, Andes Centrais (Hippocamelus antisensis, Lama guanicoe, Mazama chunyi e Vicugna vicugna) ; TG4, Patagônia chilena (Hippocamelus bisulcus e Pudu puda).; TG5, Chaco/Centro oeste do Brasil (Blastocerus dichotomus, Catagonus wagneri e Ozotocerus bezoarticus); e um nó biogeográfico em Antioquia no noroeste da Colômbia. As espécies Mazama americana, M.bricenii, M.goazoubira, M.nana, Tapirus terrestris, Tayassu pecari e T. tajacu não participaram de nenhum dos traços generalizados. Os padrões de distribuição formados a partir dos traços generalizados indicam que os ungulados viventes sofreram uma fragmentação e diferenciação no Pleistoceno, relacionadas a eventos históricos ocorridos na região Neotropical, na Zona de Transição Sul-americana e na região Andina, explicados pelos movimentos ocorridos nas Zonas de Falhas Tectônicas da América Central e do Sul, por vulcanismo e pelas mudanças climáticas. A formação do platô Altiplano-Puna revelou ser uma barreira geográfica, tanto em tempos pretéritos como em tempos atuais, para a maioria da biota sul-americana, com exceção dos camelídeos, que habitam estas áreas da Argentina, do oeste da Bolívia e sudoeste do Peru. O nó biogeográfico confirmou a presença de componentes bióticos de diferentes origens, constituindo uma área com grande diversidade biológica e endêmica, sugerindo assim uma unidade de conservação no noroeste da América do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ideia central da pesquisa foi promover uma aproximação das narrativas visuais de Getúlio Damado e Roger Mello e a partir daí evidenciar os processos cognitivos e as estratégias que envolveram a estruturação de suas identidades sociais e linguagens artísticas contemporâneas, bem como destacar o ludismo e o acesso ao universo da infância e a cultura popular que ambos ressignificam em suas obras. Além disso, buscou-se comentar e avaliar momentos específicos de desprestígio e repúdio versus consagração ocorridos com os artistas. Para tal, essas produções foram contextualizadas como produções culturais em constante processo de mutação, do qual participam tanto eventos históricos como de inovação tecnológica, em contínua construção. Essas linguagens estão submetidas a uma grande velocidade e a superposição de influências. Outro ponto destacado nas analises foi o caráter de subjetividade dessas produções, identificadas como práticas estéticas promotoras de transformação política; de mobilização; ou também por sua capacidade de operar com o uso simbólico dos brinquedos e livros infantojuvenis recuperando-lhes o uso original. Os devaneios, o ludismo infantil e a cultura popular presentes nos objetos feitos de sucata e livros ilustrados foram confrontados com práticas consoantes, ou de discursos abrangentes, correntes no mundo da arte ou outras vezes aproximados de enfoques locais. Além da possibilidade de convergência entre as produções foram destacadas também muitas diferenças, e, sobretudo evidenciadas as potencialidades que podem advir da cultura popular como campo exploratório de pesquisa, bem como de sua ressignificação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.