953 resultados para Decomposição aproximada de matrizes
Resumo:
Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.
Resumo:
Amostras de esmectitas oriundas do estado do Pará, região amazônica, Brasil, foram usadas em processo de pilarização no presente estudo. As matrizes pilarizadas e natural foram caracterizadas usando DRX e analise textural usando isotermas de adsorção-desorção de nitrogênio. Os íons de intercalação (Al13, Ti, Zr) foram obtidos através de reações químicas com soluções de AlCl36H2O/ NaOH, etoxido de titânio/HCl, acetato de zircônio / HCl. Os resultados obtidos com o processo de pilarização apresentaram aumento do espaçamento basal de 15,6 para 20, 64 Å e área superficial de 44 para 358 m2/g (Zr-PILC). A estabilidade térmica da argila natural foi melhorada com o processo de pilarização. O material resultante foi submetido a um processo catalítico de decomposição do óleo de andiroba em um reator de leito fixo a 673 ± 1 K. A atividade catalítica foi determinada pelo produto de decomposição resultante da reação química. Os parâmetros físico-químicos foram obtidos usando DRX, FTIR e análise textural. As argilas pilarizadas apresentaram alta acidez de Brønsted, com alta concentração de hidrocarbonetos aromáticos e baixa concentração de hidrocarbonetos alifáticos.
Resumo:
As análises biplot que utilizam os modelos de efeitos principais aditivos com inter- ação multiplicativa (AMMI) requerem matrizes de dados completas, mas, frequentemente os ensaios multiambientais apresentam dados faltantes. Nesta tese são propostas novas metodologias de imputação simples e múltipla que podem ser usadas para analisar da- dos desbalanceados em experimentos com interação genótipo por ambiente (G×E). A primeira, é uma nova extensão do método de validação cruzada por autovetor (Bro et al, 2008). A segunda, corresponde a um novo algoritmo não-paramétrico obtido por meio de modificações no método de imputação simples desenvolvido por Yan (2013). Também é incluído um estudo que considera sistemas de imputação recentemente relatados na literatura e os compara com o procedimento clássico recomendado para imputação em ensaios (G×E), ou seja, a combinação do algoritmo de Esperança-Maximização com os modelos AMMI ou EM-AMMI. Por último, são fornecidas generalizações da imputação simples descrita por Arciniegas-Alarcón et al. (2010) que mistura regressão com aproximação de posto inferior de uma matriz. Todas as metodologias têm como base a decomposição por valores singulares (DVS), portanto, são livres de pressuposições distribucionais ou estruturais. Para determinar o desempenho dos novos esquemas de imputação foram realizadas simulações baseadas em conjuntos de dados reais de diferentes espécies, com valores re- tirados aleatoriamente em diferentes porcentagens e a qualidade das imputações avaliada com distintas estatísticas. Concluiu-se que a DVS constitui uma ferramenta útil e flexível na construção de técnicas eficientes que contornem o problema de perda de informação em matrizes experimentais.
Resumo:
Atualmente a carne suína é a mais consumida no mundo, sendo o Brasil o quarto maior produtor. Este trabalho teve como objetivo estudar a relação do preço pago ao produtor de suíno por meio da análise dos preços do suíno vivo pagos aos produtores no Rio Grande do Sul e Santa Catarina, procurou-se comparar as diferenças e o comportamento entre as matrizes de produção destes dois Estados, para explicar o comportamento dos preços pagos aos produtores. Através dos resultados obtidos, constatou-se que os preços médios pagos aos produtores gaúchos foram historicamente maiores que os preços pagos aos produtores catarinenses. Por meio do Teste de Causalidade de Granger, Função Impulso Resposta e Decomposição da Variância, pode-se concluir que os preços pagos aos produtores de suíno integrados em Santa Catarina no passado, influenciam na formação dos preços pagos aos produtores independentes de suíno no Rio Grande do Sul no presente, ao mesmo tempo que os preços pagos aos produtores independentes gaúchos no passado influenciam na formação dos preços pagos aos produtores em Santa Catarina.
Resumo:
La varianza estadística del costo total de un proyecto usualmente se estima por medio de la simulación de Monte Carlo, bajo el supuesto de que los acercamientos analíticos son demasiado complicados. Este artículo analiza este supuesto y muestra que, contrario a lo esperado, la solución analítica es relativamente directa. También se muestra que el coeficiente de variación no se ve afectado por el tamaño (área superficial) del proyecto cuando se usan los costos de los componentes estandarizados. Se provee un caso de estudio en el cual se analizan los costos reales de los componentes para obtener la varianza del costo total requerida. Los resultados confirman trabajos previos al mostrar que la aproximación del segundo momento (varianza) bajo el supuesto de independencia subestima considerablemente el valor exacto. El análisis continua examinando los efectos del juicio profesional y con los datos simulados utilizados, la aproximación resulta razonablemente exacta - el juicio profesional absorbe la mayor parte de las intercorrelaciones involucradas. También se da un ejemplo en el cual las cantidades de los componentes unitarios son valoradas por sus costos unitarios promedios y muestra, una vez más, que la aproximación es cercana al valor real. Finalmente, el trabajo se extiende mostrando cómo obtener, para cada proyecto, las varianzas exactas del costo total.
Resumo:
Este estudo teve por objetivo avaliar, in vitro, a influência do material de confecção das matrizes, traçando um perfil da conversão monomérica de um compósito micro-híbrido, além de avaliar qual dos materiais testados mais se assemelha a uma matriz de dentina. A avaliação foi feita através da análise do grau de conversão (GC). Foram confeccionadas 3 matrizes bipartidas, sendo estas de teflon negro, tefon branco e aço inoxidável, ambas com 10mm de diâmetro e 2 mm de profundidade. Para o grupo controle foi utilizado um incisivo central bovino, o qual teve sua face vestibular aplainada em uma lixadeira sob refrigeração constante, com o auxílio de uma lixa de carbeto de silício, número 800. Após, este dente foi preparado com uma broca diamantada número 2294 (KG Sorensen) em alta rotação, própria para a preparação de cavidades padronizadas para ensaios de laboratório, apresentando um limitador de penetração. Em seguida, com um motor de baixa rotação foi realizado o acabamento das paredes, obtendo-se uma cavidade de 2,0 mm de profundidade por 9,0 mm de diâmetro. Pela palatina desse dente, com uma broca carbide cilíndrica de numeração 2056 (KG Sorensen), fez-se uma penetração até se obter uma parede de dentina extremamente fina, porém sem que esta fosse rompida. Assim, com uma agulha, fez-se uma pequena perfuração no centro dessa dentina para que este instrumental servisse como um pino para remoção do corpo de prova de dentro da matriz de dente. Os corpos de prova (CP) foram obtidos a partir da inserção do compósito no interior da perfuração das matrizes em um único incremento e cobertos na superfície externa com uma matriz de poliéster mais uma lamínula de vidro. Os CP foram fotopolimerizados por 40 s pela fonte de luz halógena Optilux 501 (Demetron), com 500 mW/cm. Imediatamente após a polimerização, os corpos de prova eram submetidos no topo e na base para a análise de espectrometria no infravermelho para a determinação da profundidade de polimerização, pela técnica do filme vazado para o compósito não polimerizado e pela técnica da pastilha de brometo de potássio (KBr) para o compósito polimerizado. Foram confeccionados 5 CP de cada grupo. Em cada grupo, o compósito da base e do topo das amostras foi moído até se obter de 1,5 a 2,0 mg de pó e misturado com 70 mg de KBr, para obtenção da pastilha de KBr. Foi feita a análise de espectrofotometria no infravermelho por Transformada de Fourier (FTIR). As absorções selecionadas para o cálculo foram 1610 cm-1 e 1637 cm-1, os picos dos espectros das ligações dos carbonos aromáticos e alifáticos, respectivamente. Os dados obtidos foram tratados estatisticamente. Os grupos Gr1B, Gr2B, Gr3B e Gr4B representam, respectivamente, as bases dos CP confeccionados pelas matrizes de DB, TN, TB e AI. Já os Gr1T, Gr2T, Gr3T e Gr4T representam os topos. Médias (%) e DP: Gr1T (46,461,99), Gr2T (39,864,51), Gr3T (44,053,44) e Gr4T (38,045,08). Gr1B (40,441,49), Gr2B (36,153,81), Gr3B (40,093,18) e Gr4B (35,593,35). Em posse dos resultados, pôde-se concluir que os grupos do teflon negro, teflon branco e aço inoxidável não apresentaram diferenças entre o grau de conversão do topo e da base, enquanto que o grupo da dentina apresentou maior conversão do topo. Comparando as matrizes entre elas, pôde-se perceber que no topo, o GC do dente bovino é maior que o GC do aço inoxidável e do que o de teflon negro, o GC do teflon branco é maior que o GC do aço inoxidável e do que o de teflon negro. Já o topo dos grupos de dente bovino e teflon banco foram semelhantes. Nas bases dos CPs, não houve diferença significativa entre os grupos testados. De acordo com os resultados obtidos no experimento, pôde-se concluir que nos grupos do teflon negro, teflon branco e aço inoxidável não houve diferença entre 0 e 2 mm, ou seja, topo e base, o que mostra que o material de confecção da matriz não influênciou o grau de conversão do compósito. Já para o grupo da matriz de dentina, o topo apresentou valor de conversão monomérica maior, mostrando que, neste caso, o material da matriz interferiu no grau de conversão. Pode-se perceber também que existe uma tendência da matriz de teflon branco se assemelhar mais a matriz de dentina, pois foi o único grupo que apresentou semelhança nos valores de conversão monomérica no topo das amostras. Porém analisando a base das amostras, percebe-se que todos os grupos se comportaram de forma semelhante, obtendo valores do grau de conversão sem diferença significante.
Resumo:
Esta dissertação avalia a evolução e estrutura do spread bancário ex-post no Brasil, no período 2000-2008, usando o método de decomposição contábil. Esta avaliação é feita em três partes. Na primeira estuda-se o setor bancário como um todo utilizando uma amostra de 30 bancos representando 89,8% do total de ativos do Consolidado bancário I (bancos comerciais e bancos múltiplos que tenham uma carteira comercial) no ano 2008. Na segunda a análise é realizada levando em conta as especificidades dos diferentes segmentos de bancos (grandes bancos varejistas, bancos varejistas públicos e bancos especializados em crédito), definidos considerando características como tamanho, tipo de negócio e clientela, característica do funding, etc., e ainda o controle de capital (público, privado nacional e estrangeiro). Por fim, numa terceira parte, considera-se, sobretudo o nicho do mercado de crédito que o banco atua. Esta segmentação do setor bancário permite avaliar a evolução do spread e sua decomposição, assim como comparar os diferentes segmentos do mercado de crédito no Brasil. A principal conclusão da dissertação é que a diferenciação da amostra de bancos por segmento ou por nicho de mercado tem implicações importantes para análise do nível e decomposição do spread bancário.
Resumo:
O transtorno de pânico é uma das questões preocupantes em termos de saúde coletiva. Pensamos que tal transtorno se configura como uma nova forma de adoecimento psíquico, categoria que tem penetrado em diferentes espaços sociais, e suas descrições vêm sendo incorporadas ao arcabouço identitário dos sujeitos. Problematizar as matrizes culturais da emergência e difusão deste transtorno, no campo da construção de subjetividade e de identidade, é o objetivo deste estudo. Na pós-modernidade, por um lado, nos centramos nas características do que se denomina sociedade de risco, (BECK, 1998) a qual gera sentimentos de imprevisibilidade, desenraizamento e desfiliação; por outro, juntamente com o desprestígio do ideal da interioridade, observa-se um recurso a se recorrer ao registro do corpo e da biologia como âncora subjetiva. (COSTA, 2005). Com a predominância de um cenário de incerteza e de risco permanente, cria-se uma atmosfera em que a previsibilidade e a confiabilidade são constantemente ameaçadas, Ou seja, o valor da confiança no registro da ontologia refere-se à existência de um ambiente suficientemente confiável e previsível para que os sujeitos experienciem uma constância dos ambientes de ação social e material circundante (WINNICOTT, 1963). Verificaremos, em meio a um cenário de risco ambiente, como o pânico emerge e é difundido com base em matrizes desviantes. O transtorno de pânico, pretensamente radicado no cérebro e determinado pela genética, parece ser uma das entidades às quais as pessoas aderem e ao redor das quais se agregam. Nesse sentido, defendendo que os tipos de patologia, nos quais se inclui o transtorno de pânico, podem servir também como redes de pertencimento, formas de sociabilidade que se organizam em torno de predicados físicos, tanto na esfera da normalidade quanto da patologia, entre as quais o corpo anatomofisiológico se destaca como fenômeno identitário, denominado por alguns autores de bioidentidade (ORTEGA, 2000). Humanizar o conceito transtorno de pânico, portanto, é afirmar que tais sintomas já conheceram outras utilizações. Entendendo o sujeito como um conjunto de crenças podem ser alteradas, revistas, repensadas, redimensionadas (COSTA, 1994). Ao sair da esfera da universalidade e essencialidade, típicas de classificações reducionistas no campo da psiquiatria, para a perspectiva de que existem jogos de linguagem diferentes para se referir ao pânico, percebemos que em vez de o transtorno de pânico existem os pânicos, ou seja, são plurais e diversificadas as diferentes gramáticas para se falar daquilo a que se reduz hoje essa classificação psiquiátrica.
Resumo:
Atualmente a maior ameaça à integridade de ecossistemas aquáticos reside nas ações antrópicas, que através de alterações na cobertura vegetal ripária, atingem todos os compartimentos dos sistemas lóticos, alterando a estrutura física, química e biológica do rio e os padrões de ligação entre ecossistemas terrestres e aquáticos. A importância dos macroinvertebrados fragmentadores ainda não é bem conhecida nos trópicos. Eles podem contribuir para a decomposição de folhas em córregos, que é um processo fundamental para o fluxo de energia em rios de pequeno porte. Os processos de decomposição e produção secundária de macroinvertebrados aquáticos nos ecossistemas lóticos são intimamente relacionados com o aporte da vegetação terrestre, e podem ser sensíveis às alterações na cobertura vegetal ripária. Os objetivos desse estudo foram avaliar: (a) quais mudanças o desmatamento pode causar nos parâmetros físicos e químicos de rios; (b) os efeitos do desmatamento sobre a estrutura da comunidade de macroinvertebrados bentônicos associados às folhas, (c) nos processos ecossistêmicos, como decomposição foliar e produção secundária, e (d) a associação entre produção secundária de fragmentadores e decomposição foliar. O estudo foi realizado em 27 locais distribuídos em quatro córregos (7-8 locais por rio) de segunda-terceira ordem e que apresentavam um gradiente de desmatamento. Para estimar a taxa de decomposição, cinco pacotes de folha foram imersos em cada um dos pontos. Um pacote de folha foi retirado de cada ponto após 2, 7, 15 e 28 dias de imersão. O quinto pacote de folha foi retirado no 37 dia de imersão para as estimativas de produção secundária, biodiversidade e a diversidade funcional de insetos aquáticos. As concentrações de amônio aumentaram e a riqueza de espécies de insetos aquáticos e de EPTs (Ephemeroptera, Plecoptera e Trichoptera) dos pacotes de folhas diminuíram com o aumento do desmatamento. As taxas de decomposição diminuíram com o aumento do desmatamento. Os dados sugerem que a perda de vegetação ripária pela conversão em agropecuária teve impacto em parâmetros químicos e bióticos, tanto na estrutura da comunidade de macroinvertebrados quanto no funcionamento do ecossistema. Concluímos que a restauração e preservação da mata ripária deve ser um foco central das estratégias de gestão de ecossistemas lóticos para assegurar que os processos ecossistêmicos e a estrutura das comunidades em bacias hidrográficas estejam agindo como provedores dos serviços ambientais esperados.
Resumo:
A análise de gases dissolvidos tem sido aplicada há décadas como a principal técnica de manutenção preditiva para diagnosticar defeitos incipientes em transformadores de potência, tendo em vista que a decomposição do óleo mineral isolante produz gases que permanecem dissolvidos na fase líquida. Entretanto, apesar da importância desta técnica, os métodos de diagnóstico mais conhecidos são baseados em constatações de modelos termodinâmicos e composicionais simplificados para a decomposição térmica do óleo mineral isolante, em conjunto com dados empíricos. Os resultados de simulação obtidos a partir desses modelos não reproduzem satisfatoriamente os dados empíricos. Este trabalho propõe um modelo termodinâmico flexível aprimorado para mimetizar o efeito da cinética de formação de sólidos como restrição ao equilíbrio e seleciona, entre quatro modelos composicionais, aquele que apresenta o melhor desempenho na simulação da decomposição térmica do óleo mineral isolante. Os resultados de simulação obtidos a partir do modelo proposto apresentaram uma melhor adequação a dados empíricos do que aqueles obtidos a partir dos modelos clássicos. O modelo propostofoi, ainda, aplicado ao desenvolvimento de um método de diagnóstico com base fenomenológica.Os desempenhos desta nova proposta fenomenológica e de métodos clássicos de diagnóstico por análise de gases dissolvidos foram comparados e discutidos; o método proposto alcançou desempenho superior a vários métodos usualmente empregados nessa área do conhecimento. E, ainda, um procedimento geral para a aplicação do novo método de diagnóstico é descrito
Resumo:
Em uma relação de bilateral,o comérciointra-industrial (CII)acontece quando os dois países exportam e importam produtos pertencentes a uma mesma indústria. Conforme apontam diversas pesquisas relacionadas a esse assunto, o intercâmbio intra-indústriade produtos tem aumentado sua participação nas transações bilaterais. Não obstante, os resultados mensurados para o comércio entre o Brasil e o resto do mundo revelam a predominância do engajamento inter-industrial em detrimento do intra-industrial. Observando dados de comércio que abrangem todos os produtos catalogados com seis dígitos no Sistema Harmonizado, esta dissertação investiga o comércio intra-industrial brasileiro entre o período de 1990 a 2013 sob suas duas formas: o intercâmbio de bens diferenciados horizontalmente e verticalmente. Ademais, a pesquisa de mensuração do CII vertical se dedica a definição dos lados superior e inferior, a fim de verificar se o Brasil é exportador ou importador líquido de bens verticalmente diferenciados de qualidade relativamente superior. Dentre a amostra de 57 países, as relações bilaterais em que o índice de Grubel e Lloyd (GL) se mostrou mais expressivo foram Argentina, Estados Unidos, México, Alemanha, Suécia, Uruguai, França, Itália, Reino Unido e Colômbia. Com relação aos setores que mais contribuíram para o índice que mensura o shareintra-industrial do comércio, destacam-se os ramos produtores de materiais de transporte e máquinas e materiais elétricos, também merecendo menção o setor de produtos químicos.Utilizando técnicas econométricas usuais da abordagem de dados em painel, a investigação dos determinantes do CII nos leva à aceitação da hipótese que relaciona o CII à presença de economias de escala. Além disso, os parâmetros estimados revelam que a distância geográfica que separa o Brasil de seu parceiro comercial prejudica mais o comércio intra-industrial vis-à-vis o inter-industrial. O processo de integração desencadeado pelo MERCOSUL, por sua vez, mostrou efeito positivo sobre o comércio intra-industrialvertical.
Resumo:
1994
Resumo:
Estudos sobre o balanço entre o carbono estocado na biomassa e o perdido por meio da ecomposição, visando a quantificacão do acúmulo líquido de carbono de um sistema florestal.