842 resultados para Distribuições de probabilidades
Resumo:
No Brasil, principalmente a partir da Constituição de 1988, vem ocorrendo uma descentralização político-administrativa do governo federal para os estados e municípios. A descentralização é uma opção para diversificar os espaços para o exercício dos direitos e liberdades civis, a autonomia da gestão municipal, a participação social, o controle e a autogestão. O provimento de recursos financeiros necessários para essa descentralização, porém, não tem ocorrido, bastando constatar que o Brasil revela uma das piores distribuições de renda do mundo e a distribuição regional de renda não consegue alterar o desenvolvimento desigual das diferentes regiões ocasionando problemas sociais de difícil solução no próprio âmbito local e acaba pressionando outras regiões pela movimentação da população em busca de melhores condições de vida. Um fator que contribui com a disparidade na distribuição das transferências governamentais é o fato de a Constituição Federal impor que a participação de cada município no bolo do ICMS seja em função do valor adicionado gerado em cada município, com um peso de pelo menos 75% do total das variáveis envolvidas para a repartição dos recursos arrecadados e os demais 25% por definição do poder público estadual. Esse formato de distribuição não leva em conta as céleres mudanças verificadas principalmente no setor público, e estados e municípios ficam engessados a uma legislação que não acompanha as mutações que ocorrem nos campos econômico, social e geopolítico. O trabalho analisa as distorções ocasionadas no Índice de Participação dos Municípios pelos benefícios fiscais e financeiros concedidos pelo Estado às empresas e a concentração de recursos do ICMS em alguns municípios, em decorrência da instalação, pelos poderes públicos da União e do Estado, de usinas hidrelétricas e outras e de polos petroquímicos. A análise da distribuição da receita do ICMS aos municípios paranaenses e a tentativa de apresentar uma fórmula que torne mais simétrica a repartição deste imposto é o ponto central deste trabalho.
Resumo:
A proposta deste trabalho é caracterizar a distribuição de intensidade da radiação solar difusa. sob diferentes condições de nebulosidade, através da análise de imagens monocromáticas do hemisfério celeste e das correspondentes medidas da irradiância solar difusa. O sistema experimental tem como elementos principais uma câmera CCD monocromática. empregada na aquisição de imagens e um piranômetro, que realiza medidas de irradiância difusa. Tanto a câmera CCD quanto o piranômetro empregam anéis de sombra com as mesmas dimensões. Desta fonna. os equipamentos bloqueiam a mesma região correspondente ao caminho do Sol. O piranômetro também emprega um aro horizontal que bloqueia a irradiância difusa da região do hemisfério celeste, cuja altitude é inferior a 25°, tornando o seu ângulo de visão igual ao da câmera CCD. Um processo de análise permitiu reduzir os IÚveis de cinza da imagem original, que passaram de 256 para apenas 16 IÚveis.Determinou-se o ângulo sólido de cada pixel em função de sua distância ao centro da imagem. O ângulo sólido de toda a imagem foi calculado pela soma do ângulo sólido de cada pixel que compõe a imagem Determinaram-se mapas de distribuição de intensidade relativa. obtidos pela razão entre os valores de intensidade do cinza. observados para os pixels que compõem uma certa região, e o valor de intensidade do cinza do pixel que pertence à região que compreende o zênite. Estes mapas estão também relacionados à distribuição de luminância no hemisfério celestes. Também se determinaram as distribuições de intensidade direcional da radiação difusa. usando toda a infonnação dispoIÚvel associada a cada imagem. Os valores de intensidade direcional são calculados em função da irradiância difusa medida. do ângulo sólido de cada região e de características da imagem. Estes mapas fornecem infonnações mais completas sobre a distribuição de intensidade energética. A partir das características da imagem, estimou-se o índice de nebulosidade para imagens que correspondem à condição de céu parcialmente nublado. O índice de nebulosidade é calculado pela razão entre o ângulo sólido da região que corresponde às nuvens e o ângulo sólido total da imagem.
Resumo:
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Propriedades fotométricas no infravermelho médio são apresentadas para uma amostra de 28 galáxias esferoidais, observadas em 6.75, 9.63 e 15 jlk com o instrumento ISOCAM a bordo do satélite ISO. As distribuições espectrais de energia (DEE) das galáxias foram derivadas usando dados do infravermelho médio junto com dados do UV, do ótico e do infravermelho próximo, previamente publicados. Estas DEE mostram duas componentes: a poeira quente aquecida até T ~ 260 K dominando a emissão no infravermelho médio e a população estelar com T ~ 4000 K, que domina no ótico. Da emissão no infravermelho médio pode ser visto que a morfologia em 6.75 μm, onde a contribuição estelar é importante, é esferoidal. Em comprimentos de onda mais longos, onde há majoritariamente emissão da poeira, a morfologia é menos suave, mostrando nuvens, filamentos e discos de poeira. Também pode ser inferido que há um gradiente de temperatura da poeira, que cresce em direção ao centro da galáxia. Os perfis de energia mostram bojos R¼ simples, composição de bojos e discos e perfis irregulares. As luminosidades no infravermelho médio estão na faixa de(3 - 42) x 10 L. As propriedades dos grãos de poeira são inferidos das cores no infravermelho médio. A emissão no infravermelho vem principalmente de grãos muito pequenos, que estão num equilíbrio térmico oscilante. As massas para a componente quente da poeira estão na faixa de 10 - 400 M.
Resumo:
A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.
Resumo:
Este trabalho descreve a especificação e implementação do protótipo Assistente de Feedback que ajuda os usuários a ajustarem os parâmetros do serviço de filtragem de mensagens vindas do correio eletrônico de sistemas como o Direto. O Assistente de Feedback é instalado no computador do usuário do Direto para monitorar suas preferências representadas pelas ações aplicadas nas mensagens do correio eletrônico. O trabalho apresenta, ainda, uma revisão bibliográfica sobre os conceitos gerais de probabilidades, redes Bayesianas e classificadores. Procura-se descrever as características gerais dos classificadores, em especial o Naive Bayes, sua lógica e seu desempenho comparado a outros classificadores. São abordados, também, conceitos relacionados ao modelo de perfil de usuário e o ambiente Direto. O Naive Bayes torna-se atraente para ser utilizado no Assistente de Feedback por apresentar bom desempenho sobre os demais classificadores e por ser eficiente na predição, quando os atributos são independentes entre si. O Assistente de Feedback utiliza um classificador Naive Bayes para predizer as preferências por intermédio das ações do usuário. Utiliza, também, pesos que representarão a satisfação do usuário para os termos extraídos do corpo da mensagem. Esses pesos são associados às ações do usuário para estimar os termos mais interessantes e menos interessantes, pelo valor de suas médias finais. Quando o usuário desejar alterar os filtros de mensagens do Direto, ele solicita ao Assistente de Feedback sugestões para possíveis exclusões dos termos menos interessantes e as possíveis inclusões dos termos mais interessantes. O protótipo é testado utilizando dois métodos de avaliação para medir o grau de precisão e o desempenho do Assistente de Feedback. Os resultados obtidos na avaliação de precisão apresentam valores satisfatórios, considerando o uso de cinco classes pelo classificador do Assistente de Feedback. Os resultados dos testes de desempenho permitem observar que, se forem utilizadas máquinas com configurações mais atualizadas, os usuários conseguirão receber sugestões com tempo de respostas mais toleráveis.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
Foi realizado um estudo da dinâmica de assembléias de Drosofilídeos em oito amostras insulares e continentais de Santa Catarina através de dados coletados em várias visitas ao longo de dois anos. Dentre os resultados obtidos está a estimativa do grau de diversidade destas assembléias. Nossas coletas mostraram que a predição de qual espécie será dominante, num determinado período amostrado, é razoavelmente possível. A análise dos índices de diversidade nos indica que o Morro da Lagoa é o ponto de menor diversidade específica, seguido de Ratones Grande. Contudo, os dois pontos têm um grande número de espécies diferentes, sendo a sua diversidade baixa em função da alta dominância do subgrupo willistoni neles encontrada. Analisando o componente S (número de espécies) da diversidade, nas ilhas pontos de coleta, percebe-se que a ilha maior (Ilha de Santa Catarina) tem realmente um maior número de espécies coletadas – 46 no ponto A além de 10 espécies diferentes coletadas no ponto D (56 espécies no total) – do que as ilhas menores (42, 44, 40 e 50), o que corrobora a teoria da biogeografia de ilhas. No continente, a curva espécie/área se comportou da mesma forma que nas ilhas se considerarmos a diversidade como um todo. Realmente estes pontos foram uns dos que apresentaram maior diversidade, principalmente o ponto F, com um H’ de 2,22, que se manteve com Mata Atlântica Primária até o final do período de coletas, sendo portanto o ponto mais preservado de todos utilizados e, teoricamente, o que apresentava maior diversidade de nichos ecológicos para serem ocupados Outros Drosofilídeos como Zaprionus, Zygotricha, Gitona, Cladochaeta, Diathoneura, Micodrosophila, Leucophenga e Amiota foram coletados. Embora nosso interesse preliminar fosse apenas o gênero Drosophila, a inclusão destes outros gêneros em nosso estudo visou uma maior compreensão das possíveis associações que podem ocorrer entre eles e espécies de Drosophila. Os dois primeiros gêneros foram mais freqüentes nas nossas coletas. Zaprionus indianus foi considerada uma espécie invasora, pois surgiu com freqüências baixíssimas que aumentaram gradualmente nas coletas subsequentes, superando em freqüência as espécies nativas. Isto confirma o caráter generalista e polifágico deste tipo de espécie. Neste trabalho, é relatado o primeiro registro do Gênero Zaprionus (Diptera, Drosophilidae) para o Estado de Santa Catarina, na região litorânea central que inclui as Ilhas de Santa Catarina, Arvoredo, Ratones Grande, Ratones Pequeno e Campeche. Drosophila roerhae, D. unipunctata, D. schineri, D. bifilum, D. fuscolineata, D. meridionalis, D. neosaltans, D. bocainoides e D. platitarsus foram pela primeira vez registradas para a região Sul do Brasil, aumentando, portanto o limite meridional de suas distribuições. Como um ponto de partida para estudar o polimorfismo para inversões cromossômicas em D. neocardini, foi construído um fotomapa de referência dos cromossomos politênicos de glândulas salivares de larvas de terceiro estágio. Pelo menos 258 indivíduos (aproximadamente três núcleos por glândula) de sete diferentes localidades (Sertão do Peri, Ilha do Arvoredo, Serra do Tabuleiro, Ilha de Ratones Grande, Ilha de Ratones Pequeno, Morro da Lagoa da Conceição e Ilha do Campeche, todos no Estado de Santa Catarina) foram analisados e fotomicrografias foram obtidas, até se chegar a um consenso sobre a identidade dos elementos cromossômicos. Uma nova inversão no braço cromossômico IIIL foi registrada e denominada de IIILA. A variabilidade cromossômica encontrada nas espécies de Drosophila do grupo cardini em todas as localidades também foi pesquisada, e foi comparada visando contribuir para uma melhor compreensão da evolução destas comunidades. Analisando o polimorfismo cromossômico de D. polymorpha encontramos nove inversões diferentes pela primeira vez descritas. Uma das inversões novas foi encontrada no cromossomo X, duas outras foram encontradas para o braço IIL; quatro foram catalogadas para o braço cromossômico IIIR e duas inversões novas foram achadas no braço cromossômico IIIL. Com relação ao polimorfismo, em D. neocardini foi encontrada apenas uma nova inversão no braço IIIL e para D. cardinoides uma nova inversão no braço IIIL. O estudo discute as implicações ecológicas e evolutivas deste tipo de polimorfismo, para um maior entendimento da evolução deste grupo de espécies.
Resumo:
Em estudos prévios sobre a filogenia de Passiflora, as espécies P. actinia e P. elegans destacaram-se pela sua grande similaridade genética, apesar de sua classificação em séries taxonômicas distintas. As duas espécies apresentam distribuição geográfica muito diferente. Enquanto P. actinia é encontrada em áreas de Mata Atlântica desde o estado do Espírito Santo até o Rio Grande do Sul (RS), P. elegans está restrita ao RS e a poucas regiões limítrofes. Para melhor avaliar as relações evolutivas entre estas duas espécies foram realizadas coletas intensivas em todo o estado e desenvolvidos testes quanto às seqüências dos espaçadores intergênicos cloroplasmáticos trnL-trnF e psbA-trnH, e dos espaçadores transcritos dos genes ribossomais nucleares ITS de plantas de diferentes localidades. As análises revelaram uma baixa variabilidade intraespecífica, e evidenciaram um perfil genético próprio a cada espécie. Nas comparações interespecíficas, foram utilizadas seqüências de espécies do subgênero (Passiflora) estudadas previamente, pertencentes às séries Simplicifoliae e Lobatae, as mesmas de P. actinia e P. elegans, respectivamente. Nos três marcadores as menores distâncias genéticas encontradas foram entre estas duas espécies, sugerindo o pouco tempo de divergência entre elas. Estas comparações não mostraram diferenças marcantes nas diversidades dentro e entre as duas séries, indicando similaridade genética entre elas Apesar da intensa amostragem realizada na área limítrofe das distribuições de P. actinia e P. elegans, somente foi encontrado um híbrido entre as duas. Além do fenótipo morfológico intermediário, o híbrido pôde ser reconhecido através das suas características genéticas, o espaçador nuclear ITS apresentando padrão aditivo nos sítios variáveis destas duas espécies; as seqüências dos marcadores cloroplasmáticos foram iguais às de P. actinia, indicando que esta é a espécie doadora deste genoma. Os padrões genéticos e geográficos destas duas espécies sugerem que o processo de especiação que se desenvolveu entre as duas seja recente e tenha ocorrido em alopatria, estando provavelmente ligado aos eventos geológicos do Holoceno que influenciaram a migração da Mata Atlântica no RS. A investigação das características abióticas das regiões de ocorrência das espécies não apresentou grandes dissimilaridades, podendo indicar que a atual segregação espacial deva-se à fragmentação florestal ou que haja exclusão competitiva entre elas, pois apresentam nichos ecológicos muito semelhantes.
Resumo:
Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.
Resumo:
O comportamento de calcários gaúchos, como dessulfurantes, foi avaliado levando-se em consideração a influência das características estruturais dos calcinados e de seus precursores. Os materiais, na faixa granulométrica de 53-62µm, foram calcinados em uma termobalança em atmosfera de N2 (100%) ou de mistura N2 (85,2%) + CO2 (14,8%) e posteriormente, submetidos a mistura oxidante contendo dióxido de enxofre. As distribuições de tamanhos de poros (DTP) dos calcinados, mostraram-se dependentes da atmosfera de calcinação e do raio de grão do calcário precursor. A ordem de reatividade, estabelecida pelos calcinados estudados neste trabalho, não apresentou relação com a consideração de uma DTP ótima (maioria de poros acima de 50Å), não sendo portanto este critério válido para seleção de dessulfurantes. Para os calcinados de uma mesma amostra, obteve-se uma relação direta entre tamanho de grão do CaO (área superficial) e reatividade, sendo as trajetórias de reação definidas de maneira combinada entre as suas distribuições de tamanhos de poros e a forma como os poros estão localizados e conectados na estrutura. Entre materiais diferentes, calcinados sob as mesmas condições e que apresentam as mesmas características físicas e de distribuição, as trajetórias de reação foram bastante distintas, demonstrando que essas semelhanças físicas não correspondem a uma mesma capacidade de reação ao longo do tempo. Isto salientou uma possível influência das características intrínsecas de cada material, relacionadas à localização e conexão dos poros na estrutura, em sua capacidade dessulfurante. Entre os calcinados com semelhanças em suas DTP e propriedades físicas, tornou-se possível relacionar a ordem de reatividade ao raio de grão do calcário precursor (determinante da localização e da forma de conexão dos poros na estrutura), sendo os calcinados de precursores de menor raio de grão os mais reativos.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.