977 resultados para Erros ortográficos
Resumo:
A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.
Resumo:
A deficiência da semialdeído succínico desidrogenase, ou acidúria γ-hidroxibutírica, é um erro inato do metabolismo do ácido γ-aminobutírico. Bioquimicamente, é caracterizada pelo acúmulo de elevadas concentrações do ácido γ-hidroxibutírico nos tecidos, líquido cefalorraquidiano, sangue e urina dos pacientes. As manifestações clínicas descritas nesses pacientes são muito variadas e inespecíficas, mas observa-se que os principais sintomas e sinais clínicos são neurológicos. Entretanto, os mecanismos responsáveis pela disfunção neurológica desses pacientes são pouco conhecidos. Neste trabalho, o efeito in vitro do ácido γ-hidroxibutírico foi investigado sobre a quimiluminescência, as substâncias reativas ao ácido tiobarbitúrico (TBA-RS), o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR) e as atividades das enzimas antioxidantes superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPX) em homogeneizados de córtex cerebral de ratos jovens com o intuito de esclarecer, ao menos em parte, a etiopatogenia dos sintomas neurológicos característicos dessa doença. O ácido γ-hidroxibutírico aumentou significativamente a quimiluminescência e os níveis de TBA-RS, enquanto que o TRAP e o TAR foram marcadamente reduzidos. No entanto, as atividades das enzimas antioxidantes não foram alteradas pelo ácido γ-hidroxibutírico. Esses resultados indicam que o ácido γ-hidroxibutírico estimula a lipoperoxidação e reduz as defesas antioxidantes não-enzimáticas, sugerindo a participação do estresse oxidativo na neuropatologia da deficiência da semialdeído succínico desidrogenase. Porém, esses achados devem ser confirmados em pacientes afetados por essa doença.
Resumo:
A doença de Lesch-Nyhan é um erro inato do metabolismo das purinas caracterizado pela deficiência na enzima hipoxantina- guanina fosforibosiltransferase. O bloqueio dessa reação resulta no acúmulo tecidual de hipoxantina, xantina e ácido úrico. A doença caracteriza-se por hiperuricemia, variado grau de retardo mental e motor, espasticidade e auto-mutilação. No sistema nervoso central, a Na+, K+ - ATPase é responsável pela manutenção da homeostase dos íons Na+ e K+, regulando o volume celular, a excitabilidade neuronal, o transporte de neurotransmissores e outras moléculas. Evidências na literatura demonstram que a redução na atividade da Na+, K+ - ATPase está relacionada com diversas doenças neurodegenerativas, tais como isquemia cerebral e doenças de Parkinson e de Alzheimer. No presente estudo, investigamos o efeito in vitro da hipoxantina, xantina e ácido úrico sobre a atividade da Na+, K+- ATPase em membrana plasmática sináptica de estriado de ratos. Estudamos, também, a cinética de inibição causada pela hipoxantina e de interação entre hipoxantina, xantina e ácido úrico. Nossos resultados demonstram que hipoxantina, xantina e ácido úrico inibem significativamente a atividade da Na+, K+- ATPase. O estudo dos mecanismos de inibição da atividade enzimática causados pela hipoxantina demonstrou um efeito inibitório não competitivo com o substrato ATP. Além disso, o estudo de interação cinética entre hipoxantina, xantina e ácido úrico sugere que esses compostos atuem em um mesmo sítio de ligação na enzima. Verificamos, também, o efeito da preincubação de homogeneizado de estriado de ratos na presença de hipoxantina (10 µM) sobre a atividade da Na+, K+- ATPase de membrana plasmática sináptica com a adição ou não de antioxidantes (glutationa e trolox), bem como alguns parâmetros de estresse oxidativo denominados TBARS (medida de lipoperoxidação) e TRAP (capacidade antioxidante tecidual não-enzimática) no intuito de verificar a participação do estresse oxidativo nos mecanismos de inibição enzimática provocados pela hipoxantina. Os resultados monstraram que a hipoxantina inibe significativamente a atividade da Na+, K+- ATPase. Adicionalmente, nossos resultados demonstraram que glutationa, mas não o trolox, na concentração de 1 mM, foi capaz de prevenir a inibição enzimática causada pela hipoxantina. Nossos resultados também mostraram que a hipoxantina, na mesma concentração, aumentou TBARS e diminuiu TRAP que essa substância induz o estresse oxidativo. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais as oxipurinas são neurotóxicas. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes portadores da doença de Lesch-Nyhan.
Resumo:
Os investimentos são unanimemente considerados pelos economistas como o coração da economia. Entre as diversas variáveis que afetam os investimentos privados as mais estudadas são as formas de financiamento do déficit público que afetam o ambiente macroeconômico: colocação de dívida ou emissão monetária. Menos atenção tem sido dada às formas de gasto público que afetam o ambiente microeconômico das empresas: aumentos dos salários no setor público podem afetar os salários do setor privado com impactos negativos sobre a lucratividade das empresas e de seus investimentos; por outro lado aumentos dos investimentos públicos, principalmente em infra estrutura tendem a ter impacto oposto. Esta dissertação estimou o impacto destas diferentes formas de gasto público para os investimentos privados Brasil nos últimos 50 anos, utilizando um modelo de correção de erros. No longo prazo se confirmam as previsões microeconômicas: enquanto os investimentos públicos afetam positivamente o investimento privado, os salários do setor público afetam negativamente esta variável. Já no curto prazo apenas o investimento público e privado defasado permaneceram significantes, cujos coeficientes apresentam os mesmos sinas da equação de longo prazo.
Resumo:
O objetivo deste estudo é apresentar estimações das elasticidades das equações da oferta de exportação e da demanda de importação para o Brasil de 1980 a 2006 a partir de dados trimestrais. Na análise empírica, foram utilizadas as técnicas de cointegração multivariada de Johansen Juselius e modelo de correção de erros (ECM). As exportações brasileiras em valores podem melhor ser explicadas quando decompostas nos índices de preços médios e de volume, pois ambos dependem do índice de preços internacionais de commodities. Usando variáveis macroeconômicas como a taxa de câmbio real, o volume das exportações mundiais e o índice de preços internacionais de commodities, a evidência empírica sugere que existe uma relação de cointegração entre o volume exportado brasileiro e essas variáveis. As estimações também foram realizadas de forma desagregada para produtos básicos, semimanufaturados e manufaturados. Comprovamos a hipótese de que o país é um tomador de preços no comércio internacional, através de testes de causalidade de Granger e de modelo VAR para conhecer a resposta dos preços dos bens exportados a um choque nos preços internacionais de commodities, que se mostrou persistente nos testes realizados. Por sua vez, as estimativas da função de demanda de importação totais e por categoria de uso (bens intermediários, bens de capital, bens de consumo duráveis e não duráveis) também apresentaram uma relação estável de longo prazo entre volume das importações brasileiras, preço relativo e nível de renda doméstico, sendo os últimos medidos pelo câmbio real e o PIB respectivamente. Adicionalmente, foram incluídas as reservas internacionais, variável não comumente utilizada da literatura sobre o tema para o país. Os resultados encontrados vão de encontro a outros estudos, mostrando maior elasticidade da renda do que dos preços.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo desse trabalho é verificar evidências empíricas do canal de crédito como transmissor da política monetária no Brasil no período de janeiro de 2000 a março de 2007. A metodologia utilizada baseou-se na relação entre as séries temporais agregadas de variáveis de política monetária, mercado de crédito, mercado monetário e inflação. Os testes econométricos foram realizados com os dados agregados utilizando-se os modelos VAR (vetor autoregressivo) e VEC (vetor de correção de erros) para analisar as séries temporais. Foi observado o comportamento do mercado de emissão de dívida como fonte alternativa de financiamento externo das empresas, além do crédito bancário, de modo a se avaliar se há um deslocamento para outras fontes de financiamento externo pelo efeito de um choque monetário. A conclusão que emerge dos testes econométricos indica a importância do crédito bancário na transmissão da política monetária, identificada através dos efeitos de causalidade e as reações de impulso-resposta encontradas. A observação do aumento nas emissões privadas das empresas para atender suas necessidades de financiamento externo dá indicação de que a redução do crédito, após contração monetária, ocorre pelo lado da oferta de crédito pelos bancos.
Resumo:
Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.
Resumo:
A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.
Resumo:
Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.
Resumo:
A Doença de Gaucher (DG) é a doença de depósito mais comum. É causada pela deficiência da enzima -glicosidase (-gli), necessária para o catabolismo intralisossômico do glicocerebrosídio, sendo herdada de modo autossômico recessivo. Esta deficiência resulta em um acúmulo de glicocerebrosídio nos lisossomos de macrófagos derivados de monócitos em tecidos do sistema reticuloendotelial. No período de janeiro de 1982 a outubro de 2003 foram analisadas, bioquimicamente, 1081 amostras de sangue de pacientes com suspeita de DG. Nestas amostras foram medidas as atividades das enzimas -gli e quitotriosidase (QT). Foram diagnosticados 412 casos de DG (38,1%), sendo na sua grande maioria DG tipo 1. As regiões brasileiras de maior concentração destes pacientes foram as regiões sudeste, sul e nordeste. A idade média destes pacientes ao diagnóstico foi de 19 anos. A atividade da -gli de indivíduos com DG foi em média 10,7% daquela apresentada pelos indivíduos normais. A QT apresentou-se em média 269 vezes mais elevada no grupo de pacientes com DG. Nos 669 casos em que não foi confirmada a presença de DG, houve pacientes com Doença de Niemann-Pick tipos A, B ou C (44 casos), possíveis heterozigotos para DG (59 casos), pacientes com outras DL (19 casos) e outros EIM (3 casos) Em 508 casos não foi encontrado nenhum distúrbio metabólico. Foram analisadas as mutações de 128 indivíduos com DG, sendo que o genótipo N370S/L444P foi o mais freqüente (48,4%). Este estudo mostra que o protocolo bioquímico empregado foi eficiente para a detecção de DG, uma doença que se mostra bastante freqüente também no Brasil. Neste estudo também foi possível caracterizar o comportamento do pH ótimo, termoestabilidade, Km e Vmax da -gli em leucócitos de pacientes com DG e heterozigotos obrigatórios com diferentes genótipos comparando-os com indivíduos normais. Os resultados mostraram um comportamento diferente da enzima nos três grupos analisados. Esse comportamento variou conforme a mutação presente nos indivíduos. Não foi observado somente um único pH ótimo nos 3 grupos. A enzima de indivíduos normais mostrou uma faixa de pH de 5,0 a 5,4, a de heterozigotos, um único pH ou uma estreita faixa e a de indivíduos com DG, 2 picos de pH ótimo. O Km e a Vmax da enzima de heterozigotos variou desde igual até maior que aquele da enzima normal. Quando comparamos a enzima de indivíduos normais com aquela de pacientes com DG, observamos que nos genótipos N370S/N370S e N370S/IVS2+1 o Km foi maior e no grupo N370S/L444P o Km foi significativamente menor. A Vmax nos indivíduos com DG apresentou valores menores em relação aos indivíduos normais. A enzima de leucócitos de indivíduos normais, heterozigotos e homozigotos para DG, foi inativada a 60ºC. As diferenças de comportamento entre as enzimas dos três grupos analisados permitiram discriminá-los, ou seja, a enzima de indivíduos homozigotos apresentou uma maior atividade residual após 60 minutos de pré-incubação, sendo mais termoestável que os grupos de indivíduos normais e heterozigotos. . A mutação N370S produziu uma enzima mais estável e cataliticamente mais ativa que aquela da mutação L444P. Esta por sua vez, foi mais estável e ativa do que a mutação D409H. O mesmo aconteceu com os indivíduos homozigotos para DG, onde o comportamento bioquímico da b-gli foi determinado pela presença do alelo N370S. Portanto há um gradiente de estabilidade que vai de uma condição mais estável a uma condição menos estável. Este gradiente assemelha-se aquele da classificação do fenótipo clínico da DG. Os resultados nos permitem correlacionar diretamente a mutação N370S, mais estável cineticamente, com a forma clínica não neurológica da doença e a mutação menos estável cataliticamente (D409H) com a forma clínica neurológica da DG. Através deste trabalho foi possível obter informações sobre o comportamento da proteína em cada mutação estudada, seja ela em homo ou em heterozigose e estes dados podem colaborar para uma melhor distinção entre a enzima de indivíduos normais, heterozigotos e homozigotos para DG.
Resumo:
Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.
Resumo:
A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.