967 resultados para Tempo de retorno
Resumo:
Minha dissertação consiste em desenvolver a relação estabelecida entre o texto e o leitor no processo de leitura literária como produtividade, considerada como um conjunto, compreendendo o produtor do texto e seu leitor. A leitura vista como ‘‘jogo", em que o retorno do diferente não desdenha a tradição da leitura, conduz o leitor à produzir um texto múltiplo, plural. O texto é o mesmo e um outro ao mesmo tempo. Este estudo compreende três textos singulares da obra de Samuel Beckett: Malone meurt, L’Innommable e En attendant Godot. Tudo o que é assimilado, assim como refutado por Beckett, é convidado a entrar em cena no decorrer deste trabalho. Como via de acesso para a composisão da escritura becketiana, foi necessário seguir os passos da memória de leitura do autor para chegar a uma conclusão, segundo minha própria leitura, a partir da leitura dos três textos escolhidos. Por isso, reencontrei em Proust, a idéia do leitor ‘‘livre’’ e ‘‘independente’’ mantido por Beckett. Seguindo os traços da tradição, foi possível desenvolver uma memória de leitura como uma repetição, conduzindo a um resultado imprevisto. Balzac é a primeira referência da leitura beketiana. O autor é trabalhado como fonte principal da leitura becketiana. Assim, a composição da memória em Beckett não pode ser recuperada senão na articulação dos estudos textuais como ‘‘produção’’ e, cujas imagens repetitivas fornecidas pelos três textos de Samuel Beckett asseguram a continuidade, a produtividade de leitura, em que, esta memória, torna-se inevitavelmente, memória do texto.
Resumo:
A Febre Reumática (FR) é uma doença com significativa prevalência na população de pacientes em idade escolar. Constitui-se na principal causa de cardiopatia crônica em adultos jovens em países em desenvolvimento. A prevenção é de fácil manejo terapêutico, embora com reduzido índice de adesão. Até o momento, a melhor forma de evitarmos as seqüelas cardíacas é através da identificação e tratamento precoces e a manutenção de uma adequada profilaxia secundária. São raras as publicações referentes ao acompanhamento da profilaxia secundária após a alta hospitalar. O objetivo deste trabalho é avaliar a adesão ao acompanhamento dos pacientes com FR internados no Hospital de Clínicas de Porto Alegre, no período de janeiro de 1977 a junho de 1999. A coorte foi constituída de 112 indivíduos com FR que tinham indicação de retorno ao ambulatório após a alta. Quarenta pacientes (35,7%) foram atendidos no primeiro episódio de FR. A maioria apresentou seqüelas cardíacas (52,7%), ocorrendo registro de casos a partir de 8 anos de idade. As manifestações clínicas nos 40 pacientes atendidos no primeiro episódio de FR foram: 21 (52,5%) com cardite, 30 (75%) com artrite e 14 (35%) com coréia. Apenas 77 (68,7%) retornaram ao ambulatório após a alta e somente 13 (21% pelo método de Kaplan-Meier) mantiveram acompanhamento por no mínimo 5 anos. A idade menor ou igual a 16 anos foi fator preditivo de maior tempo de acompanhamento. Local de procedência, presença de seqüelas e renda familiar não mostraram associação significante. A interrupção do acompanhamento pela maioria dos pacientes e a verificação do pior prognóstico cardíaco nos pacientes com recidivas sugere a necessidade da adoção de um programa de orientação e busca para garantir a efetividade da profilaxia secundária.
Resumo:
O presente trabalho tem por objetivo estudar e aplicar um método de integração numérica de tempo para estrutras dinâmicas com dissipação de energia. Nessa dissertação tal método é analisado e posteriormente implementado em MATLAB, afim de resolver algumas aplicações em sistemas dinâmicos dotados de massas, molas e amortecedores que são apresentados no primeiro capítulo. Usando o método implementado em MATLAB, também é apresentada uma aplicação para vibrações transversais em cordas axialmente.
Resumo:
Devido aos elevados custos com manutenção e reparo de estruturas de concreto armado, há uma preocupação crescente com sua durabilidade. Entre os principais agentes de degradação da estrutura por corrosão de armadura encontra-se o íon cloreto, que pode ser incorporado ao concreto ou difundir-se através da camada de cobrimento até a armadura. Neste caso é importante que o concreto dificulte ou impeça a penetração do agente agressivo até a armadura, adequando-se às condições de permeabilidade necessárias ao material. Existem diversas formas de alterar a estrutura interna do concreto e, conseqüentemente, a difusão de cloretos para o seu interior. Este trabalho refere-se ao estudo do comportamento da difusão de cloretos em diferentes concretos variando a relação água/aglomerante, teor de adição de sílica ativa, temperatura e tempo de cura. Desta forma utilizou-se o ensaio acelerado de penetração de cloretos (ASTM C 1202) e migração de cloretos (ANDRADE, 1993), avaliando os concretos quanto à resistência à penetração de íons. Os resultados indicaram que a difusão de cloretos diminui em até 70% com o decréscimo da relação água/aglomerante de 0,75 para 0,28, em até 60% com o aumento do teor de sílica ativa utilizado (até 20%), e reduz em até 50% com o aumento da temperatura de exposição (5o C para 40o C) durante a cura e com a evolução da idade avaliada de 7 a 91 dias.
Resumo:
Este estudo tem como objetivo geral a análise da relação entre trajetórias profissionais de trabalhadores desligados da indústria de transformação, delineadas no período posterior ao seu desligamento, e atributos profissionais construídos e acumulados pelo exercício profissional na indústria de transformação e também em período anterior, não necessariamente vinculado a essa indústria. Trata-se de um estudo exploratório e de uma análise descritiva, realizados com um conjunto composto por 20 trabalhadores desligados, em 1997, dos ramos industriais mecânico e material de transporte do Município de Caxias do Sul. Pressupunha-se que a introdução de inovações tecnológicas nos processos de trabalho da indústria colocava novas exigências em termos de atributos profissionais dos trabalhadores, expressas nos processos de contratação, repercutindo, desse modo, nas possibilidades de reinserção profissional. Ao mesmo tempo, dadas as especificidades da reestruturação industrial em curso no Brasil, compreendia-se que as novas exigências poderiam não se estender a todos os postos de trabalho, atenuando as dificuldades de reinserção profissional. Utilizando como abordagem metodológica a análise longitudinal de trajetórias individuais no mercado de trabalho, foram reconstituídas as trajetórias profissionais pós-desligamento dos trabalhadores, bem como identificados os atributos profissionais, acumulados no decorrer de toda a sua vida profissional. As trajetórias pós-desligamento foram tratadas como eventos seqüenciais, sendo que cada um se referia a uma situação de não exercício ou de exercício de atividade laboral. Os atributos profissionais foram definidos como conhecimentos e habilidades de caráter técnico. Com a reconstituição das trajetórias do conjunto de trabalhadores investigados, verificou-se que, em sua maioria, estes retornaram à indústria e aos ramos em que desempenhavam suas atividades laborais no período anterior ao desligamento. Quanto à relação entre trajetórias pós-desligamento e atributos profissionais, verificou-se que mesmo aqueles trabalhadores que não apresentavam atributos referentes ao trabalho com os equipamentos de base microeletrônica ou, ainda, os níveis de escolaridade requeridos pelo mercado de trabalho retornaram à indústria. O retorno à ocupação profissional daqueles trabalhadores detentores de atributos concernentes ao trabalho com equipamentos de base eletromecânica associa-se, em parte, ao caráter seletivo e heterogêneo da reestruturação industrial. No entanto, as informações coletadas revelaram que outros elementos interferiram na reinserção profissional do conjunto de trabalhadores investigados, como a existência de vagas no mercado de trabalho e o estabelecimento de vínculos pessoais.
Resumo:
Esta tese apresenta dados de um estudo descritivo exploratório com crianças em situação de rua da cidade de Ribeirão Preto, interior do Estado de São Paulo. Foi abordada, através de uma perspectiva ecológica, a temática da infância, abrangendo seus significados e determinações para estas crianças, questões de temporalidade e da identificação, descrição e significação de atividades cotidianas em situação de rua. A amostra foi composta por dez crianças com idades entre oito e onze anos, de ambos os sexos. Com base nos pressupostos teórico-metodológicos da Teoria dos Sistemas Ecológicos e na revisão da literatura nas áreas da História, Psicologia e Psicopatologia do Desenvolvimento foram criados quatro instrumentos de pesquisa (entrevista sócio-demográfica, jogo de sentenças incompletas sobre a infância, entrevista semi-estruturada sobre o tempo e gravuras sobre atividades cotidianas em situação de rua), aplicados na própria situação de rua. Os dados mostram: a) a diversidade da rua enquanto ambiente de desenvolvimento, b) a presença de contatos familiares freqüentes na vida das crianças, c) a defasagem escolar característica, d) a infância definida dentro de parâmetros ideais propostos no macrossistema, e) a vivência do tempo estruturada em rotinas onde a cronologia não se encontra presente de forma incisiva, f) as atividades cotidianas abrangendo diferentes significações, com expressões de diversos afetos e opiniões sobre o viver a situação de rua. A Teoria dos Sistemas Ecológicos sustenta a análise destes dados dentro de parâmetros de integração entre as dimensões Tempo, Pessoa, Processo e Contexto, viabilizando a valorização da criação de instrumentos que favoreçam a descrição e análise da realidade pelos próprios participantes da pesquisa e a proposta e sustentação de projetos de intervenção nesta realidade.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
A resposta impulso é utilizada como ferramenta padrão no estudo direto de sistemas concentrados, discretos e distribuídos de ordem arbitrária. Esta abordagem leva ao desenvolvimento de uma plataforma unificada para a obtenção de respostas dinâmicas. Em particular, as respostas forçadas dos sistemas são decompostas na soma de uma resposta permanente e de uma resposta livre induzida pelos valores iniciais da resposta permanente. A teoria desenvolve-se de maneira geral e direta para sistemas de n-ésima ordem, introduzindo-se a base dinâmica gerada pela resposta impulso na forma padrão e normalizada, sem utilizar-se a formulação de estado, através da qual reduz-se um sistema de ordem superior para um sistema de primeira ordem. Considerou-se sistemas de primeira ordem a fim de acompanhar-se os muitos resultados apresentados na literatura através da formulação de espaço de estado. Os métodos para o cálculo da resposta impulso foram classificados em espectrais, não espectrais e numéricos. A ênfase é dada aos métodos não espectrais, pois a resposta impulso admite uma fórmula fechada que requer o uso de três equações características do tipo algébrica, diferencial e em diferenças Realizou-se simulações numéricas onde foram apresentados modelos vibratórios clássicos e não clássicos. Os sistemas considerados foram sistemas do tipo concentrado, discreto e distribuído. Os resultados da decomposição da resposta dinâmica de sistemas concentrados diante de cargas harmônicas e não harmônicas foram apresentados em detalhe. A decomposição para o caso discreto foi desenvolvida utilizando-se os esquemas de integração numérica de Adams-Basforth, Strömer e Numerov. Para sistemas distribuídos, foi considerado o modelo de Euler-Bernoulli com força axial, sujeito a entradas oscilatórias com amplitude triangular, pulso e harmônica. As soluções permanentes foram calculadas com o uso da função de Green espacial. A resposta impulso foi aproximada com o uso do método espectral.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).
Resumo:
É consenso mundial a importância de estudos sobre a penetração de cloretos nos concretos, devido ao caráter deletério destes íons quanto à corrosão das armaduras. Quando os íons cloretos ingressam no concreto em quantidade suficiente causam a despassivação e a corrosão das armaduras, conduzindo à diminuição da vida útil das estruturas. Os cloretos podem ser introduzidos no concreto de várias maneiras: como aditivo, pela contaminação da água ou da areia, ou podem ingressar provindos do meio externo. Os cloretos potencialmente agressivos geralmente penetram na estrutura dissolvidos em água, através dos mecanismos de penetração de água e transporte de íons, sendo um dos mecanismos que ocorrem com maior freqüência a difusão. Este mecanismo de penetração de íons cloretos nas estruturas de concreto armado é influenciado pela relação água/aglomerante, o tipo de cimento, a presença de adições, a cura, o tempo, a temperatura de exposição, dentre outros, e seus valores ainda podem ser utilizados em modelos matemáticos para previsão de vida útil. Assim, este trabalho objetiva avaliar o coeficiente de difusão de cloretos em concretos confeccionados com dois tipos diferentes de cimento (CP II F e CP IV), cinco distintas relações água/cimento (0,28, 0,35, 0,45, 0,60 e 0,75), cinco temperaturas de cura (5, 15, 25, 30 e 40°C) e cinco diferentes idades (7, 14, 28, 63 e 91 dias). Paralelamente foram realizados ensaios de resistência à compressão axial e penetração acelerada de cloretos. A metodologia utilizada permitiu avaliar e medir os coeficientes de difusão de cloretos nos concretos confeccionados, tendo sido observados que os coeficientes diminuem com a elevação da temperatura de cura e da idade, com o uso do cimento CP IV e com a redução da relação água/cimento.
Resumo:
Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
A estimulação (manipulação) neonatal tem servido como modelo para observar os mecanismos pelos quais as variações no ambiente do recém-nascido podem afetar seu desenvolvimento quando adulto. Por outro lado, a separação maternal é um modelo que analisa a importância do cuidado parental para o desenvolvimento da prole. Quando adultos, ratos que foram manipulados periodicamente na infância apresentam menor reatividade ao estresse, enquanto aqueles que sofreram privação maternal periódica são mais medrosos e podem apresentar déficits de desenvolvimento e aprendizado. Este trabalho teve por objetivo investigar se a manipulação por 1 minuto ou a separação periódica por 180 minutos dos filhotes no período neonatal poderiam alterar o comportamento da mãe destes filhotes. Avaliou-se o tempo em que a mãe fica em contato com os filhotes, o tempo em que ela fica lambendo-os e a duração do comportamento de amamentação com o dorso arqueado. A duração destes comportamentos foi observada no primeiro, quinto e décimo dia após o nascimento, antes, logo após, 40 e 80 minutos após a manipulação e a separação, sendo que os filhotes foram submetidos a estes estresses durante os primeiros 10 dias pós-parto. Em conjunto, nossos resultados mostraram que tanto a manipulação por 1 minuto como a separação por 180 minutos aumentaram a duração do comportamento de lamber os filhotes nos primeiros dez dias após o parto. O aumento deste comportamento ocorreu imediatamente após o retorno dos filhotes à caixa, mas não se manteve alto e voltou ao nível do grupo controle após um período de tempo. No grupo manipulado houve uma redução do tempo em que a mãe fica junto aos filhotes logo após a manipulação, comparado aos outros grupos. Nossos resultados mostram que tanto a estimulação dos filhotes pela manipulação como a privação materna pelo afastamento prolongado provocam aumento do comportamento maternal, expressado pelo comportamento de lamber, logo após o retorno dos filhotes ao ninho. As alterações comportamentais ou de responsividade ao estresse no adulto, induzidas por eventos ambientais durante o período neonatal (manipulação ou privação materna) podem ser causadas pelo efeito da intervenção direta sobre os filhotes ou pela alteração do comportamento maternal.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.