8 resultados para criptococose generalizada
em Biblioteca de Teses e Dissertações da USP
Resumo:
A metrópole de São Paulo é a maior e mais importante aglomeração urbana do Brasil e está entre as dez maiores áreas urbanas do mundo. No entanto, a forma como acessibilidade espacial ocorre gera um fardo para a população e para a atividade econômica. Este trabalho pretende contribuir para a discussão de como melhorar a acessibilidade na Região Metropolitana de São Paulo estudando as características e impactos de estruturas espaciais urbana, analisando criticamente a estrutura espacial da metrópole e proporcionando sugestões de melhorias a fim de proporcionar uma mobilidade mais sustentável. Os procedimentos metodológicos incluem uma revisão bibliográfica sobre o tema e uma caracterização da estrutura espacial da Região Metropolitana de São Paulo, considerando a alocação de população, alocação de empregos e os padrões de deslocamento para os modais individual, coletivo e não motorizado. Apresentamos um relato da evolução recente, com dados das pesquisas de origem e destino realizadas pelo Metrô em 1997 e 2007 e da pesquisa de mobilidade de 2012. Também realizamos uma caracterização mais aprofundada com os dados da pesquisa de 2007. As cidades se desenvolvem com base no trade-off entre proximidade e mobilidade: a fim de maximizar as possibilidades de interação, as pessoas e as empresas tendem a se localizar onde o deslocamento necessário para executar essas interações requer menos custos financeiros, perda de tempo e desconforto. Esse processo molda a alocação espacial de atividades, que define parcialmente os hábitos de transporte. A estrutura espacial urbana pode ser caracterizada por sua escala (padrões compacto ou disperso), arranjo de densidades (padrão disperso ou clusterizado) e arranjo de atividade (padrão monocêntrico ou policêntrico). Estruturas espaciais com padrão mais compacto apresentam menores distâncias de viagem, reduzindo o impacto ambiental das viagens e viabilizando o transporte não motorizado e coletivo, e levam a um uso mais eficiente da terra, menor custo de infraestrutura e maior equidade no acesso ao transporte. Já estruturas clusterizadas policêntricas são associadas com maior facilidade de acesso à terra. Existe um debate sobre a capacidade de estruturas policêntricas resultarem em uma aproximação generalizada de empregos e residências. A Região Metropolitana de São Paulo apresenta um padrão monocêntrico na escala metropolitana, com fortes movimentos pendulares da periferia para o centro expandido da iii capital. Durante o período de análise, foi observada uma realocação da população para áreas mais centrais da cidade e uma centralização dos empregos ainda mais forte, resultando no agravamento dos movimentos pendulares. Existe uma clara divisão modal por renda: as classes mais altas utilizam majoritariamente automóveis, enquanto as classes mais baixas utilizam majoritariamente transporte coletivo e não motorizado. Para o futuro, o novo plano diretor tem o mérito de caminhar na direção do desenvolvimento urbano orientado pelo transporte sustentável, porém os níveis de densidade máxima permitidos ainda são parecidos com o do plano anterior e a largura dos eixos de adensamento é restrita. Acreditamos ser vantajoso um aumento do adensamento em áreas próximas dos empregos; geração de polos de adensamento em áreas mais afastadas dos empregos, mas próximas das infraestruturas de transporte coletivo de alta velocidade, e desencorajamento do adensamento em áreas com baixa acessibilidade. Também é necessária uma gestão integrada dos transportes, provendo infraestrutura para viagens não motorizadas e viagens intermodais, e uma gestão dos impactos negativos do adensamento.
Resumo:
Neste trabalho, foi proposta uma nova família de distribuições, a qual permite modelar dados de sobrevivência quando a função de risco tem formas unimodal e U (banheira). Ainda, foram consideradas as modificações das distribuições Weibull, Fréchet, half-normal generalizada, log-logística e lognormal. Tomando dados não-censurados e censurados, considerou-se os estimadores de máxima verossimilhança para o modelo proposto, a fim de verificar a flexibilidade da nova família. Além disso, um modelo de regressão locação-escala foi utilizado para verificar a influência de covariáveis nos tempos de sobrevida. Adicionalmente, conduziu-se uma análise de resíduos baseada nos resíduos deviance modificada. Estudos de simulação, utilizando-se de diferentes atribuições dos parâmetros, porcentagens de censura e tamanhos amostrais, foram conduzidos com o objetivo de verificar a distribuição empírica dos resíduos tipo martingale e deviance modificada. Para detectar observações influentes, foram utilizadas medidas de influência local, que são medidas de diagnóstico baseadas em pequenas perturbações nos dados ou no modelo proposto. Podem ocorrer situações em que a suposição de independência entre os tempos de falha e censura não seja válida. Assim, outro objetivo desse trabalho é considerar o mecanismo de censura informativa, baseado na verossimilhança marginal, considerando a distribuição log-odd log-logística Weibull na modelagem. Por fim, as metodologias descritas são aplicadas a conjuntos de dados reais.
Resumo:
Geralmente, nos experimentos genótipo por ambiente (G × E) é comum observar o comportamento dos genótipos em relação a distintos atributos nos ambientes considerados. A análise deste tipo de experimentos tem sido abordada amplamente para o caso de um único atributo. Nesta tese são apresentadas algumas alternativas de análise considerando genótipos, ambientes e atributos simultaneamente. A primeira, é baseada no método de mistura de máxima verossimilhança de agrupamento - Mixclus e a análise de componentes principais de 3 modos - 3MPCA, que permitem a análise de tabelas de tripla entrada, estes dois métodos têm sido muito usados na área da psicologia e da química, mas pouco na agricultura. A segunda, é uma metodologia que combina, o modelo de efeitos aditivos com interação multiplicativa - AMMI, modelo eficiente para a análise de experimentos (G × E) com um atributo e a análise de procrustes generalizada, que permite comparar configurações de pontos e proporcionar uma medida numérica de quanto elas diferem. Finalmente, é apresentada uma alternativa para realizar imputação de dados nos experimentos (G × E), pois, uma situação muito frequente nestes experimentos, é a presença de dados faltantes. Conclui-se que as metodologias propostas constituem ferramentas úteis para a análise de experimentos (G × E) multiatributo.
Avaliação de métodos numéricos de análise linear de estabilidade para perfis de aço formados a frio.
Resumo:
Para o projeto de estruturas com perfis de aço formados a frio, é fundamental a compreensão dos fenômenos da instabilidade local e global, uma vez que estes apresentam alta esbeltez e baixa rigidez à torção. A determinação do carregamento crítico e a identificação do modo de instabilidade contribuem para o entendimento do comportamento dessas estruturas. Este trabalho avalia três metodologias para a análise linear de estabilidade de perfis de aço formados a frio isolados, com o objetivo de determinar os carregamentos críticos elásticos de bifurcação e os modos de instabilidade associados. Estritamente, analisa-se perfis de seção U enrijecido e Z enrijecido isolados, de diversos comprimentos e diferentes condições de vinculação e carregamento. Determinam-se os carregamentos críticos elásticos de bifurcação e os modos de instabilidade globais e locais por meio de: (i) análise com o Método das Faixas Finitas (MFF), através do uso do programa computacional CUFSM; (ii) análise com elementos finitos de barra baseados na Teoria Generalizada de Vigas (MEF-GBT), via uso do programa GBTUL; e (iii) análise com elementos finitos de casca (MEF-cascas) por meio do uso do programa ABAQUS. Algumas restrições e ressalvas com relação ao uso do MFF são apresentadas, assim como limitações da Teoria Generalizada de Viga e precauções a serem tomadas nos modelos de cascas. Analisa-se também a influência do grau de discretização da seção transversal. No entanto, não é feita avaliação em relação aos procedimentos normativos e tampouco análises não lineares, considerando as imperfeições geométricas iniciais, tensões residuais e o comportamento elastoplástico do material.
Resumo:
Com o decorrer dos anos o consumo de petróleo e seus derivados aumentou significativamente e com isso houve a necessidade de se investir em pesquisas para descobertas de novas jazidas de petróleo como o pré-sal. Porém, não apenas a localização dessas jazidas deve ser estudada, mas, também, sua forma de exploração. Essa exploração e extração, na maioria das vezes, se dão em ambientes altamente corrosivos e o transporte do produto extraído é realizado através de tubulações de aço de alta resistência e baixa liga (ARBL). Aços ARBL expostos a ambientes contendo H2S e CO2 (sour gas) sofrem corrosão generalizada que promovem a entrada de hidrogênio atômico no metal, podendo diminuir sua tenacidade e causar falha induzida pela presença de hidrogênio (Hydrogen Induced Cracking HIC), gerando falhas graves no material. Tais falhas podem ser desastrosas para o meio ambiente e para a sociedade. O objetivo deste trabalho é estudar a tenacidade, utilizando ensaio Charpy, de um tubo API 5L X65 sour após diferentes tempos de imersão em uma solução saturada com H2S. O eletrólito empregado foi a solução A (ácido acético contendo cloreto de sódio) da norma NACE TM0284 (2011), fazendo-se desaeração com injeção de N2, seguida de injeções de H2S. Os materiais foram submetidos a: ensaios de resistência a HIC segundo a norma NACE TM0284 (2011) e exames em microscópio óptico e eletrônico de varredura para caracterização microestrutural, de inclusões e trincas. As amostras foram submetidas a imersão em solução A durante 96h e 360h, sendo que, após doze dias do término da imersão, foram realizados os ensaios Charpy e exames fractográficos. Foram aplicados dois métodos: o de energia absorvida e o da expansão lateral, conforme recomendações da norma ASTM E23 (2012). As curvas obtidas, em função da temperatura de impacto, foram ajustadas pelo método da tangente hiperbólica. Esses procedimentos foram realizados nas duas seções do tubo (transversal e longitudinal) e permitiram a obtenção dos seguintes parâmetros: energias absorvidas e expansão lateral nos patamares superior e inferior e temperaturas de transição dúctil-frágil (TTDF) em suas diferentes definições, ou seja, TTDFEA, TTDFEA-DN, TTDFEA-FN, TTDFEL, TTDFEL-DN e TTDFEL-FN (identificação no item Lista de Abreviaturas e Siglas). No exame fractográfico observou-se que o material comportou-se conforme o previsto, ou seja, em temperaturas mais altas ocorreu fratura dúctil, em temperaturas próximas a TTDF obteve-se fratura mista e nas temperaturas mais baixas observou-se o aparecimento de fratura frágil. Os resultados mostraram que quanto maior o tempo de imersão na solução A, menor é a energia absorvida e a expansão lateral no patamar superior, o que pode ser explicado pelo (esperado) aumento do teor de hidrogênio em solução sólida com o tempo de imersão. Por sua vez, os resultados mostraram que há tendência à diminuição da temperatura de transição dúctil-frágil com o aumento do tempo de imersão, particularmente, as TTDFEA-DN e TTDFEL-DN das duas seções do tubo (longitudinal e transversal). Esse comportamento controverso, que pode ser denominado de tenacificação com o decorrer do tempo de imersão na solução A, foi explicado pelo aparecimento de trincas secundárias durante o impacto (Charpy). Isso indica uma limitação do ensaio Charpy para a avaliação precisa de materiais hidrogenados.
Resumo:
Qualquer tarefa motora ativa se dá pela ativação de uma população de unidades motoras. Porém, devido a diversas dificuldades, tanto técnicas quanto éticas, não é possível medir a entrada sináptica dos motoneurônios em humanos. Por essas razões, o uso de modelos computacionais realistas de um núcleo de motoneurônios e as suas respectivas fibras musculares tem um importante papel no estudo do controle humano dos músculos. Entretanto, tais modelos são complexos e uma análise matemática é difícil. Neste texto é apresentada uma abordagem baseada em identificação de sistemas de um modelo realista de um núcleo de unidades motoras, com o objetivo de obter um modelo mais simples capaz de representar a transdução das entradas do núcleo de unidades motoras na força do músculo associado ao núcleo. A identificação de sistemas foi baseada em um algoritmo de mínimos quadrados ortogonal para achar um modelo NARMAX, sendo que a entrada considerada foi a condutância sináptica excitatória dendrítica total dos motoneurônios e a saída foi a força dos músculos produzida pelo núcleo de unidades motoras. O modelo identificado reproduziu o comportamento médio da saída do modelo computacional realista, mesmo para pares de sinal de entrada-saída não usados durante o processo de identificação do modelo, como sinais de força muscular modulados senoidalmente. Funções de resposta em frequência generalizada do núcleo de motoneurônios foram obtidas do modelo NARMAX, e levaram a que se inferisse que oscilações corticais na banda-beta (20 Hz) podem influenciar no controle da geração de força pela medula espinhal, comportamento do núcleo de motoneurônios até então desconhecido.
Resumo:
The present thesis is focused on the development of a thorough mathematical modelling and computational solution framework aimed at the numerical simulation of journal and sliding bearing systems operating under a wide range of lubrication regimes (mixed, elastohydrodynamic and full film lubrication regimes) and working conditions (static, quasi-static and transient conditions). The fluid flow effects have been considered in terms of the Isothermal Generalized Equation of the Mechanics of the Viscous Thin Films (Reynolds equation), along with the massconserving p-Ø Elrod-Adams cavitation model that accordingly ensures the so-called JFO complementary boundary conditions for fluid film rupture. The variation of the lubricant rheological properties due to the viscous-pressure (Barus and Roelands equations), viscous-shear-thinning (Eyring and Carreau-Yasuda equations) and density-pressure (Dowson-Higginson equation) relationships have also been taken into account in the overall modelling. Generic models have been derived for the aforementioned bearing components in order to enable their applications in general multibody dynamic systems (MDS), and by including the effects of angular misalignments, superficial geometric defects (form/waviness deviations, EHL deformations, etc.) and axial motion. The bearing exibility (conformal EHL) has been incorporated by means of FEM model reduction (or condensation) techniques. The macroscopic in fluence of the mixedlubrication phenomena have been included into the modelling by the stochastic Patir and Cheng average ow model and the Greenwood-Williamson/Greenwood-Tripp formulations for rough contacts. Furthermore, a deterministic mixed-lubrication model with inter-asperity cavitation has also been proposed for full-scale simulations in the microscopic (roughness) level. According to the extensive mathematical modelling background established, three significant contributions have been accomplished. Firstly, a general numerical solution for the Reynolds lubrication equation with the mass-conserving p - Ø cavitation model has been developed based on the hybridtype Element-Based Finite Volume Method (EbFVM). This new solution scheme allows solving lubrication problems with complex geometries to be discretized by unstructured grids. The numerical method was validated in agreement with several example cases from the literature, and further used in numerical experiments to explore its exibility in coping with irregular meshes for reducing the number of nodes required in the solution of textured sliding bearings. Secondly, novel robust partitioned techniques, namely: Fixed Point Gauss-Seidel Method (PGMF), Point Gauss-Seidel Method with Aitken Acceleration (PGMA) and Interface Quasi-Newton Method with Inverse Jacobian from Least-Squares approximation (IQN-ILS), commonly adopted for solving uid-structure interaction problems have been introduced in the context of tribological simulations, particularly for the coupled calculation of dynamic conformal EHL contacts. The performance of such partitioned methods was evaluated according to simulations of dynamically loaded connecting-rod big-end bearings of both heavy-duty and high-speed engines. Finally, the proposed deterministic mixed-lubrication modelling was applied to investigate the in fluence of the cylinder liner wear after a 100h dynamometer engine test on the hydrodynamic pressure generation and friction of Twin-Land Oil Control Rings.
Resumo:
Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.