122 resultados para Mapeamento de preferências
Resumo:
No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.
Resumo:
Esta dissertação estabelece as principais características do comportamento da maioria dos eleitores brasileiros e procura demonstrar que existe uma “razão” que move as escolhas eleitorais. Para tanto, utiliza-se da produção da ciência política brasileira sobre o comportamento eleitoral e de pesquisas realizadas em diversas cidades do interior do Rio Grande do Sul. O principal objetivo deste trabalho é o de compreender como se processam as escolhas eleitorais, tendo em vista que a maioria do eleitorado brasileiro não acredita na política, mantém-se distante dos mecanismos de participação e vota na pessoa do candidato. O pressuposto básico é de que as escolhas eleitorais da maior parte da população, em especial, as das camadas populares, são motivadas por uma cultura política cética e personalista, que tem sua origem e manutenção nos condicionantes históricos-estruturais da política brasileira. As evidências indicam que a maior parte do eleitorado, define o destino do voto de forma sensível e emocional, a partir dos atributos simbólicos dos candidatos e das imagens difusas das competições eleitorais. Nesse contexto, estabelece-se a lógica do comportamento da maioria dos eleitores brasileiros, que pode ser interpretado como emotivo, tendo em vista que as preferências eleitorais tendem a direcionar-se aos candidatos que são mais “conhecidos positivamente”, e que, ao mesmo tempo, desfrutam de uma avaliação positiva de confiança, afinidade e simpatia. Nesses termos é que a imagem de um candidato torna-se elemento-chave da decisão eleitoral. O eleitor emotivo vota no candidato que conhece positivamente e inspira confiança, porque o voto é resultado de uma cultura política personalista e descrente. O eleitor brasileiro vota em quem “conhece”, porque “confia”.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
A evolução das estratégias de marketing mostra que o principal esforço competitivo deve focar na manutenção dos clientes e no desenvolvimento dos relacionamentos já existentes, para aumento do valor da empresa, com menores riscos e maiores oportunidades para aumentar a lucratividade, de diversas maneiras. Contudo, os relacionamentos significam coisas diferentes, para clientes diferentes, sendo que o estudo teórico e prático do seu comportamento pode indicar mudanças essenciais nos processos de marketing do fornecedor, reestruturando-os em torno do cliente e com vantagens para ambos. Da percepção de possíveis lacunas entre as estratégias e ações de marketing dos bancos de atacado e aquilo que as grandes empresas realmente desejam, para o efetivo estabelecimento de relacionamentos duradouros e valiosos, surgiu este estudo exploratório, o qual buscou revisar a literatura de marketing e realizar uma pesquisa qualitativa, para identificação e discussão dos principais elementos teóricos e práticos, relativos ao processo de formação e manutenção de relacionamentos de longo prazo, entre bancos de atacado e sete grandes empresas de varejo, no âmbito geográfico do Estado do Rio Grande do Sul. Os resultados e conclusões do estudo indicam que as relações existentes entre bancos de atacado e essas sete grandes empresas de varejo estão evoluindo, na direção da busca e do fortalecimento de relacionamentos de longo prazo. As expectativas, preferências e práticas dessas empresas confirmam a existência de espaços, para que os bancos aprimorem suas estratégias e práticas de marketing, para melhor construir ou consolidar os relacionamentos. Embora não generalizáveis, os resultados e conclusões deste estudo exploratório podem ser complementares aos de outros já realizados, com outros enfoques ou a respeito de outras realidades, servindo de estímulo ou ponto de partida para a realização de novas pesquisas, que ajudem a melhor entender os componentes, mecanismo e chaves lógicas da construção e manutenção de relacionamentos corporativos, em geral, ou de suas muitas particularidades, de acordo com cada contexto e tipo de indústria, fornecedor e cliente envolvidos.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
Este trabalho aborda o estudo de gerenciamento costeiro feito na área do Manguezal do Itacorubi, na Ilha de Santa Catarina, Estado de Santa Catarina, sul do Brasil. São apresentados dois enfoques, o primeiro discute o comportamento do ecossistema ao longo do século XX diante de diferentes fatores de estresse, concluindo que o manguezal, em 1998, havia perdido 13,32% de área em relação a 1938, porém, nesse mesmo período, progradou aproximadamente 80 m sobre a plataforma continental adjacente, o que indica que o manguezal, apesar de sitiado por uma vizinhança densamente povoada, tem capacidade regenerativa e de avançar em direção do oceano. O segundo enfoque aborda os aspectos geológicos, relacionando os depósitos sedimentares encontrados nesse embaiamento costeiro e as variações holocênicas do nível do mar, constatando que o mar já cobriu essa área em tempos recentes, deixando como testemunho espessos pacotes sedimentares que se apóiam diretamente sobre o embasamento cristalino da região. Dados de testemunhos de sondagem auxiliaram no mapeamento de subsuperfície, indicando a ocorrência de um vale inciso no embasamento, o qual teria servido de acesso preferencial durante o evento transgressivo, guardando os sedimentos de maior granulometria, associados a uma região de maior dinâmica, enquanto nas áreas adjacentes, mais rasas, as granulometrias tendem para as frações mais finas. Sobre esse pacote essencialmente clástico estabeleceu-se a sedimentação carbonosa do manguezal. As variações sedimentares laterais são muito notáveis mesmo naqueles furos relativamente próximos (menos de 20 m), evidenciando a dificuldade que seria a construção de um mapa defácies de uma área de pântano parálico. O bosque de mangue existe nessa área há pelo menos 4,5 Ka, afirmação apoiada sobre os resultados obtidos com a datação de 14C sobre amostra de sedimentos carbonosos.
Resumo:
O ambiente de concorrência em que estão inseridas as empresas tem pressionado pela busca constante de novas ferramentas gerenciais. Os hospitais não estão alheios a este desafio e encontram-se em constante transformação ao encontro da excelência assistencial. A existência de um sistema de custos adequado, sendo um instrumento de informação acurado que auxilia na melhoria dos processos internos e nas tomadas de decisão como um todo, apresenta-se como elemento estratégico importante para a competitividade de um hospital. O propósito deste estudo de caso, realizado no primeiro semestre de 2002, foi o de desenvolver e validar um modelo de sistema de custos integrado aos protocolos médicos e rotinas assistenciais da Unidade de Terapia Intensiva (UTI) do Hospital Mãe de Deus de Porto Alegre - RS. O modelo foi matematicamente construído, embasado no método ABC (Actvity-Based Costing) para a alocação dos custos fixos e indiretos, e no método do Custo-Padrão real (corrente) para a alocação dos custos diretos, tendo como pressupostos o custeio dos diversos serviços e a conseqüente promoção de melhorias contínuas e auxílio ao processo decisório como vantagens competitivas nas negociações com fontes pagadoras. O desenvolvimento do modelo deu-se através do mapeamento de dez protocolos aprovados pela Comissão de Ética do hospital e representativos da assistência diversificada da UTI, seguido da alocação dos custos fixos e indiretos com mão-de-obra, depreciação, manutenção e gasoterapia, através do estabelecimento de direcionadores de tempo (mão-de-obra) e intensidade (demais custos), baseados no percentual de participação dos recursos ditados pelos protocolos. Os custos diretos com materiais e medicamentos foram alocados pela média do custo-padrão corrente. A coleta de dados primários, para o estabelecimento dos direcionadores de custos, foi realizada junto à equipe assistencial e utilizou-se medidas estatísticas de localização, dispersão e probabilidade para dar mais confiabilidade às análises. O modelo foi implementado computacionalmente, utilizando-se o software EXCEL da Microsoft. A validação foi dada pela comparação dos resultados entre o modelo desenvolvido e o demonstrativo contábil fornecido pela Controladoria do hospital. Concluiu-se que o modelo desenvolvido de sistema de custos integrado aos protocolos médicos atendeu os objetivos pretendidos, sendo um instrumento gerencial flexível e de fácil implementação, que deve ser utilizado pelo controller do hospital no auxílio ao processo decisório de gestores e da alta administração. Em adição, mostrou-se capaz de embasar tomadas de decisão no longo prazo em relação à capacidade instalada e oportunidades de redimensionamento de quadro de médicos plantonistas e enfermeiros.
Resumo:
Este trabalho teve como objetivo principal investigar o processo de imobilização do íon cromo, oriundo da cinza de incineração da serragem de couro curtido ao cromo (CSC), em corpos cerâmicos vitrificados. Para tanto, foram desenvolvidas formulações com adição de vidro sodocálcico a CSC, que foram submetidas a diferentes temperaturas de queima. Para o aprofundamento da investigação dos fenômenos atuantes no processo de imobilização do íon cromo, foram formuladas massas cerâmicas com a adição de óxidos puros de Na2O, TiO2, MgO e CaO, à composição CSC e vidro sodo-cálcido. As massas cerâmicas foram conformadas por prensagem uni-axial de duplo efeito e queimadas em forno elétrico tipo mufla, nas temperaturas de 750, 800, 950 e 1000ºC. Posteriormente, foram caracterizadas quanto às propriedades físicas e composição mineralógica, bem como, avaliadas quanto à imobilização do cromo através de ensaios de lixiviação, segundo a Norma NBR 10.005. O controle de fases formadas resultante do processamento cerâmico foi investigado com o auxílio de difração de raios X e mapeamento por microssonda EDS. Os resultados obtidos indicam que é possível obter a imobilização do íon cromo da CSC, de acordo com o limite máximo estabelecido pela NBR 10.004 (5mg/L), utilizando vidro e agentes de vitrificação/densificação, como o óxido de titânio e óxido de magnésio. Quanto mais elevada a temperatura de queima, mais efetiva foi a imobilização de cromo nos corpos cerâmicos investigados. O aumento da temperatura de queima diminui a porosidade aberta, via formação de fase vítrea, levando desse modo a uma diminuição da lixiviação do cromo. No entanto, a adição somente de vidro a CSC aumentou a lixiviação do cromo dos corpos cerâmicos, embora sempre menor para temperaturas de queima crescentes. Deve-se isso, ao aumento de fases lixiviáveis, como cromatos de sódio, a partir da reação do sódio, do vidro sodo-cálcico e do cromo da CSC. Os corpos cerâmicos que apresentaram a fase cromato de sódio, apresentaram deficiente imobilização do íon cromo, em todas as formulações investigadas.
Resumo:
O volume cada vez maior de informações que as pessoas estão precisando ter acesso, as especificidades dos ambientes onde elas encontram-se e suas características individuais são responsáveis pelo crescimento da área hipermídia adaptativa. Os sistemas desta área tentam antecipar as necessidades e desejos dos usuários, entregando-lhes um sistema o mais personalizado possível. Este trabalho distingue sistema hipermídia adaptável de sistema hipermídia adaptativo, conforme a participação do usuário na indicação de suas características ao sistema. Qualquer um destes sistemas podem ser usados em áreas tais como hipermídia educacional, informação on-line, ajuda on-line, recuperação de informações, informação institucional e gerenciamento de visões personalizadas em espaços de informações. Um sistema hipermídia com característica de adaptatividade deve considerar dados do usuário, dados de utilização e dados do ambiente. Os dados do usuário são considerados na maioria dos sistemas e usados para construir o modelo do usuário, que é uma das principais partes de um sistema da área hipermídia adaptativa. O modelo do usuário geralmente mantém informações sobre preferências, conhecimento, interesse, objetivos, background e traços de personalidade do usuário. Além do modelo do usuário, existem também o modelo do domínio e as formas de adaptação presentes em muitos modelos. Por exemplo, o modelo AHAM (Adaptive Hypermedia Application Model) define através de regras os referidos modelos e é apresentado de forma sucinta neste trabalho. As formas de adaptação de um sistema hipermídia são realizadas, usando duas tecnologias principais de adaptação: apresentação adaptativa, que inclui todas as técnicas que adaptam o conteúdo de uma página de acordo com o modelo do usuário e suporte à navegação adaptativa, que abrange as técnicas que manipulam os links de uma apresentação para adequar o hiperespaço navegacional conforme o modelo do usuário. Atualmente, existem diversos sistemas com ferramentas de autoria que permitem construir apresentações adaptativas e controlar seu processo de adaptação. Um dos sistemas que considera a maior quantidade de características adaptativas do usuário e que está disponível para as plataformas mais difundidas é o sistema AHA! (Adaptive Hypermedia Architecture) que é apresentado neste trabalho. A percepção de que o uso de uma ferramenta de autoria para hipermídia adaptativa não garante que uma apresentação seja construída com alto grau de adaptatividade impulsionou o desenvolvimento de um sistema chamado AdaptAvaliador, capaz de avaliar o grau de adaptatividade de uma apresentação em diversos aspectos. Devido às diferenças de sintaxe das apresentações criadas por diferentes ferramentas de autoria, o AdapAvaliador apenas avalia apresentações construídas no AHA!. As características, arquitetura e funcionamento do sistema de avaliação de apresentações hipermídia adaptativas são apresentadas em detalhes no presente trabalho. Para testar a eficácia do AdaptAvaliador foi desenvolvido um curso, usando o AHA!, e submetido para avaliação pelo AdaptAvaliador. O curso e os resultados obtidos com a avaliação são também apresentados neste trabalho.
Resumo:
Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.
Personalidades vocacionais e desenvolvimento na vida adulta : generatividade e carreira profissional
Resumo:
Esta pesquisa investigou relações entre interesses vocacionais e o desenvolvimento psicossocial e de carreira na vida adulta. A tipologia de interesses vocacionais de J. Holland, hegemônica no campo da psicologia vocacional, considera a escolha da carreira como expressão direta da personalidade. O modelo propõe seis tipos de interesse ou fatores de personalidade vocacional: realista, investigativo, artístico, social, empreendedor e convencional. Holland sugeriu que as preferências vocacionais estão relacionadas à diferenças em capacidades e disposição para fazer transições de carreira. O mercado de trabalho atual requer profissionais adaptáveis e capazes de gerenciar as suas carreiras. Estes comportamentos podem ser descritos através dos conceitos de comprometimento e entrincheiramento de carreira. O comprometimento inclui a identificação com o trabalho e o planejamento da carreira. O entrincheiramento refere-se à imobilização do sujeito numa ocupação devido a falta de alternativas de carreira e ao medo da mudança. Adultos na meia-idade são propensos ao entrincheiramento devido a restrição de suas oportunidades de crescimento profissional neste período. É também nesta época que surgem as preocupações generativas. A generatividade significa o envolvimento do indivíduo com o bem-estar das próximas gerações e o seu desejo de ser lembrado na posteridade. Diferenças de personalidade têm sido associadas à adaptabilidade de carreira e à generatividade. Esta pesquisa investigou relações entre personalidades vocacionais, comportamentos de carreira e generatividade na vida adulta. Participaram do estudo 733 profissionais (415 homens e 318 mulheres) com idades entre 25 e 65 anos e com, no mínimo, 5 anos de carreira profissional. Os sujeitos responderam a medidas de interesses vocacionais, generatividade, comprometimento com a carreira e entrincheiramento na carreira. A generatividade correlacionou positivamente com o comprometimento e negativamente com o entrincheiramento. Tipos convencionais revelaram menor generatividade em comparação com artísticos, sociais e empreendedores. Na adultez média, tipos investigativos mostraram maior entrincheiramento do que empreendedores e realistas. Tipos empreendedores mostraram maior planejamento de carreira do que realistas e sociais. Os resultados indicaram que a adaptabilidade de carreira e a generatividade estão relacionadas a tipos de interesse vocacional, corroborando a importância de fatores de personalidade para o entendimento do desenvolvimento adulto. As implicações teóricas e práticas são discutidas. Palavras-chave: interesses vocacionais, generatividade, carreira.
Resumo:
A fenilcetonúria clássica (PKU), que afeta 1: 10.000 nascimentos em populações caucasianas, é um erro inato do metabolismo determinado pela deficiência da enzima hepática fenilalaninahidroxilase (PAH), com o conseqüente bloqueio na conversão de fenilalanina (Phe) em Tirosina (Tyr) e aumento da concentração plasmática de Phe. A PKU foi descrita há 70 anos pelo médico norueguês Asbjörn Folling. Desde então muitas foram as descobertas a seu respeito, como a caracterização e mapeamento do seu gene, a identificação de mutações, a determinação da estrutura da enzima, características clínicas e bioquímicas dos afetados, correlações genótipo-fenótipo, a identificação do risco teratogênico quando da condição materna, o estabelecimento da triagem neonatal e ainda o seu tratamento. Se não diagnosticada e tratada precocemente, a PKU causa retardo mental, microcefalia, espasmos infantis, odor de rato na urina e hipopigmentação de pele, cabelos e olhos, além de outros sinais e sintomas. Com o objetivo de identificar a população submetida à triagem neonatal no Rio Grande do Sul (Brasil), a incidência de Fenilcetonúria e de outras hiperfenilalaninemias e correlacionar época do diagnóstico, início do tratamento e desfecho clínico, elaborou-se este estudo delineado como uma coorte ambispectiva que avaliou 54 pacientes fenilcetonúricos entre 6 meses a 16 anos de idade. Foram realizadas entrevistas telefônicas com os responsáveis indagando-se alguns dados demográficos e outros relativos à patologia. Crianças de 6 meses a 7 anos foram avaliadas com relação aos marcos do DNPM. Acima dessa idade, foram investigados sobre escolaridade e presença de sintomas neurológicos. Após análise estatística e estratificação da amostra por ano de nascimento, não se observou uma tendência histórica do diagnóstico ter se tornado mais precoce ou de o controle laboratorial ter se tornado melhor com o passar dos anos. Foi encontrada associação entre o controle de Phe e a cognição, mas não a entre a idade do diagnóstico e a evolução clínica.
Resumo:
Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.
Resumo:
Neste trabalho de tese investigamos o papel de dinâmica perturbativa e não-perturbativa da Cromodinâmica Quântica, a teoria das interações fortes, em processos de produção de quarks pesados e de quarkonium-estados ligados de um par de quarks pesados. Um aspecto importante na produção de quarks pesados consiste no tratamento de ordens mais altas em QCD perturbativa, que abordamos por meio de elementos de matriz QCD em segunda ordem dominante (NLO) e através de um gerador de eventos Monte Carlo, mais útil fenomenologicamente, onde a produção perturbativa de pares Q Q e obtida utilizando elementos de matriz em ordem dominante e a aproximação de chuveiros partônicos de processos em ordens mais altas. Os processos suaves formando estados ligados de quarkonium são descritos em termos do modelo de evaporação de cor (CEM), ou alternativamente através do modelo de interações suaves de cor (SCI) e do modelo da lei das áreas generalizado (GAL). Neste trabalho, calculamos as distribuições em xF e p? para o J= e 0 em hadroprodução em alvo xo e no colisionador p p do Tevatron. Outros observáveis como a seção de choque total para J= , 0 e charme aberto tamb em são reproduzidos. Além disso, extrapolamos os modelos para descrever a produção de J= e no futuro colisionador LHC, onde as taxas de produção de J= estão at e uma ordem de magnitude acima de outra predição da literatura, o qual pode implicar em J= ser um ru do não negligenciável para estudos de violação da simetria CP no LHC. Além disso, com o objetivo de descrever as taxas de produção relativas entre os vários estados de charmonium, desenvolvemos um modelo para o mapeamento do espectro contínuo de massas do par c c produzido perturbativamente, nas ressonâncias de charmonium, onde introduzimos uma correlação entre a massa invariante do par produzido perturbativamente e a massa física do estado de charmonium. Outra abordagem importante ao estudo dos aspectos perturbativos e não-perturbativos da QCD na produção de quarks pesados e o formalismo de fatorização k?, o qual investigamos em processos de fotoprodução de charme e bottom, com ênfase em resultados de um modelo de saturação. Efeitos de evolução DGLAP tamb em são estudados, considerando a derivada da distribuição de glíuons. Analisamos em detalhe seções de choque totais e distribuições em pT , mostrando as regiões de validade de cada descrição. Através do estudo de vários aspectos perturbativos e não-perturbativos da QCD, este trabalho de tese contribui para um melhor entendimento da conexão entre essas duas dinâmicas.