984 resultados para Ácido desoxirribonucleico - Modelos
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
A tecnologia de processos de desenvolvimento de software ´e uma importante área de estudo e pesquisas na Engenharia de Software que envolve a construção de ferramentas e ambientes para modelagem, execução, simulação e evolução de processos de desenvolvimento de software, conhecidos como PSEEs (do inglês: Process-Centered Software Engineering Environments). Um modelo de processo de software é uma estrutura complexa que relaciona elementos gerenciáveis (i.e. artefatos, agentes, e atividades) que constituem o processo de software. Esta complexidade, geralmente, dificulta a percepção e entendimento do processo por parte dos profissionais envolvidos, principalmente quando estes profissionais têm acesso apenas a uma visão geral do modelo. Desta forma, há necessidade de mecanismos para visualização e acompanhamento dos processos, fornecendo informações adequadas aos diferentes estados, abstraindo as informações relevantes tanto as fases presentes no processo de desenvolvimento quanto ao agente envolvido, além de facilitar a interação e o entendimento humano sobre os elementos do processo. Estudos afirmam que a maneira como são apresentadas as informações do modelo de processo pode influenciar no sucesso ou não do desenvolvimento do software, assim como facilitar a adoção da tecnologia pela indústria de software. Este trabalho visa contribuir nas pesquisas que buscam mecanismos e cientes para a visualização de processos de software apresentando a abordagem APSEE-Monitor destinada ao apoio a visualização de processos de software durante a sua execução. O principal objetivo desta pesquisa é apresentar um modelo formal de apoio a visualização de processos capaz de extrair dados de processos e organizá-los em sub-domínios de informações de interesse do gerente de processos. Neste trabalho aplica-se o conceito de múltiplas perspectivas como uma estratégia viável para a abstração e organização das informações presentes no modelo de processos. A solução proposta destaca-se por estender a definção original de perspectivas e fornecer uma estratégia de extração dos dados através de uma especificação formal utilizando o paradigma PROSOFT-Algébrico. Além disso, o trabalho apresenta um conjunto de requisitos relativos a interação entre gerentes de processos e PSEEs, a definição formal das perspectivas, uma gramática que define a linguagem de consulta aos processos, e um protótipo da aplicação.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Utilização de reserva de óleo e gás em modelos de avaliação por múltiplos para empresas petrolíferas
Resumo:
O aumento global dos investimentos gerou a necessidade de uma melhor determinação do valor justo das empresas, para tanto, no presente, existem diversas metodologias de avaliação. A metodologia do Fluxo de Caixa Descontado (FCD) e a Avaliação Relativa, também conhecida como múltiplos, são as mais utilizadas. Ao mesmo tempo, o setor de petróleo e gás natural transformou-se em um dos principais segmentos econômicos, principalmente para países em desenvolvimento. Para as empresas desse setor, as reservas de petróleo são cruciais, pois são indicativos de previsão de produção e a garantia de geração de fluxo de caixa no futuro. Dentro desta perspectiva, este trabalho procura quantificar qual a influência do volume das reservas provadas de empresas petrolíferas integradas com ações listadas na bolsa de valores de Nova York (NYSE) no valor de mercado do patrimônio líquido destas empresas. Ou seja, vamos procurar identificar qual a influência do volume das reservas provadas na avaliação relativa por múltiplos, que são indicadores de valor de mercado. O resultado obtido sugere que a acumulação de reservas como estratégia de valorização de uma empresa de petróleo, sem reflexo na lucratividade ou no valor patrimonial, será penalizada pelo mercado.
Resumo:
A homocistinúria é uma doença metabólica hereditária causada pela deficiência severa na atividade da enzima cistationina β-sintase e é bioquimicamente caracterizada pelo acúmulo tecidual de homocisteína e metionina. Retardo mental, deficiência cognitiva, isquemia, convulsões e aterosclerose são achados clínicos comuns em pacientes homocistinúricos. No entanto, os mecanismos fisiopatológicos da doença são pouco conhecidos. Modelos animais experimentais de erros inatos do metabolismo são úteis para compreender a fisiopatologia dessas doenças em humanos. No nosso laboratório, já foram criados alguns modelos animais de algumas doenças metabólicas hereditárias, como, por exemplo, fenilcetonúria e hiperprolinemia tipo II. A Na+,K+-ATPase é uma enzima fundamental responsável pela manutenção do gradiente iônico necessário para a excitabilidade neuronal e consome de 40 a 60% do ATP formado no cérebro. Essa enzima é inibida por radicais livres e sua atividade está diminuída na isquemia cerebral, epilepsia e em doenças neurodegenerativas como a doença de Alzheimer. A diminuição de energia cerebral e o estresse oxidativo têm sido associados com algumas doenças que afetam o sistema nervoso central, como as doenças de Alzheimer, Parkinson e Huntington e isquemia cerebral. Por outro lado, a homocisteína tem sido considerada um fator de risco para o aparecimento dessas doenças. No sentido de ampliar o conhecimento das alterações bioquímicas envolvidas na gênese da disfunção neurológica característica da homocistinúria, esse trabalho teve como principal objetivo desenvolver um modelo químico experimental de hiperhomocisteinemia em ratos. Utilizando esse modelo, verificamos a atividade da Na+,K+-ATPase e alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades das enzimas succinato desidrogenase e citocromo c oxidase) em hipocampo de ratos. A aprendizagem e a memória na tarefa do labirinto aquático de Morris foram avaliadas em ratos submetidos ao modelo químico experimental de hiperhomocisteinemia. Nesse trabalho, também estudamos o efeito in vitro dos metabólitos acumulados na homocistinúria, homocisteína e metionina, sobre a atividade da Na+,K+-ATPase e sobre alguns parâmetros de metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividade da enzima citocromo c oxidase). Além disso, o efeito in vitro da homocisteína sobre alguns parâmetros de estresse oxidativo (potencial antioxidante total (TRAP), substâncias reativas ao ácido tiobarbitúrico (TBARS) e atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase) em hipocampo de ratos foi investigado. O tratamento crônico foi realizado do 6o ao 28o dia de vida, através de administrações subcutâneas de homocisteína, duas vezes ao dia, com intervalos de 8 horas. As doses de homocisteína administradas foram escolhidas com o objetivo de induzir concentrações plasmáticas de 0,4 a 0,5 mM, semelhantes àquelas encontradas em pacientes homocistinúricos. Através desse tratamento, também foram induzidas concentrações elevadas de homocisteína no cérebro de ratos. Os controles receberam solução salina em volumes semelhantes. Os resultados mostram que a administração crônica de homocisteína inibiu a atividade da Na+,K+-ATPase de membrana plasmática sináptica, a produção de CO2 e a captação de glicose, assim como as atividades das enzimas succinato desidrogenase e citocromo c oxidase em hipocampo de ratos. Os animas tratados com homocisteína também apresentaram diminuição de memória na tarefa do labirinto aquático de Morris. Além disso, a homocisteína e a metionina inibiram a atividade da Na+,K+-ATPase de hipocampo de ratos in vitro. Estudos cinéticos sobre a inibição da Na+,K+-ATPase, causada pela homocisteína, também foram realizados. Os resultados mostraram que a homocisteína inibe a enzima de forma não-competitiva com o ATP como substrato. Também foi verificado que a incubação de homogeneizados de hipocampo com homocisteína diminuiu a atividade da Na+,K+-ATPase e que a incubação simultânea com alguns antioxidantes, tais como glutationa, ditiotreitol, cisteína e a enzima antioxidante superóxido dismutase preveniram esse efeito. Os metabólitos acumulados na homocistinúria também alteraram alguns parâmetros de metabolismo energético cerebral (produção de CO2 e lactato, captação de glicose e atividades das enzimas succinato desidrogenase e citocromo c oxidase) in vitro. Além disso, verificou-se que a homocisteína in vitro diminuiu o TRAP e aumentou a quantidade de TBARS, um marcador de lipoperoxidação, mas não alterou as atividades das enzimas antioxidantes catalase, superóxido dismutase e glutationa peroxidase. Os achados sugerem que a inibição da atividade da Na+,K+-ATPase, a diminuição do metabolismo energético e o aumento do estresse oxidativo podem estar relacionados com as disfunções neurológicas características dos pacientes homocistinúricos.
Resumo:
O objetivo desta pesquisa é discutir os chamados modelos de “contágio mimético” como uma explicação das crises financeiras e mostrar que tais situações não nascem necessariamente de comportamentos irracionais dos agentes econômicos.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.
Resumo:
O objetivo deste trabalho foi avaliar a influência da imersão em ácido peracético sobre a resistência flexural e rugosidade das cerâmicas do sistema Procera AllCeram. Para cada ensaio foram analisados, o grupo controle e experimental cuja variável foi a imersão em ácido peracético (0,2%), por 50 minutos. A resistência flexural biaxial foi avaliada de acordo com a especificação 6872, da International Organization for Standardization (ISO), que requer um valor mínimo de 50MPa para a cerâmica de cobertura (AllCeram) e 100MPa para a cerâmica de subestrutura (Procera). Para todos os ensaios foram confeccionados 10 corpos de prova, de cada material para compor os grupos experimental (imerso em desinfetante) e controle, com dimensões de (16±0,2)mm de diâmetro por (1,6±0,1)mm de espessura para o AllCeram e, (12±0,2)mm de diâmetro e (1,2±0,2)mm de espessura para o Procera, totalizando 60 corpos de prova. A rugosidade foi avaliada com um rugosímetro utilizando o parâmetro Ra. Os valores médios de resistência flexural biaxial e o desvio padrão dos grupos controle e experimental do Procera e AllCeram foram respectivamente, (440,7±114,77)MPa, (411,6±45,02)MPa, (76,5±3,59)MPa e (86,5±15,41)MPa. Os valores médios da rugosidade e o desvio padrão dos grupos controle e experimental do Procera e AllCeram foram respectivamente: (0,090±0,014)µm, (0,086±0,009) µm, (0,022±0,004)µm e (0,0210±0,006) µm. Quando comparados com a ISO 6872, todos os corpos de prova foram aprovados quanto à resistência flexural. Quando comparados entre si, através do teste “t” de Student não houve diferença significativa entre os grupos experimental e controle de cada um dos ensaios, mostrando que o ácido peracético não interferiu significativamente nas propriedades de resistência flexural e rugosidade dos materiais. Sendo assim, pode-se prever que tal procedimento não trará prejuízos ao desempenho clínico das próteses confeccionadas com as cerâmicas do sistema Procera AllCeram quando consideradas as propriedades analisadas, podendo ser um procedimento clinicamente recomendável. Unitermos: cerâmica odontológica, resistência flexural, rugosidade, ácido peracético.
Resumo:
Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.
Resumo:
Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones
Resumo:
Estudo ao Ministério da Cultura sobre práticas legislativas estrangeiras relacionadas a direitos autorais, realizado pelos professores Pedro Paranaguá e Sérgio Branco, da Escola de Direito da Fundação Getúlio Vargas do Rio de Janeiro. Além de Berna e de TRIPs, o estudo faz uma análise comparativa de algumas leis estrangeiras. Foram escolhidos cinco países, dos quais quatro com leis em vigor e um com um projeto de lei apresentado em seu Congresso. Dois países em desenvolvimento: Chile e Filipinas, e três desenvolvidos: Austrália, Canadá e Noruega.
Resumo:
I use Search models to study decentralized markets of durable goods. I explore the concept of market liquidity of Lippman and McCall (1986) and show that the theory of optimal search is useful to address the following issues: What governs the time required to make a transaction on these markets? What is the relationship between the price of goods and the time required to make transactions? Why is optimal to wait to make a transaction in markets where individuals discount future utility? What is the socially optima search level? Two specifications are used, the traditional model of job search and a version of Krainer and LeRoy (2001) model.