1000 resultados para Efeito de real
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Odontologia Restauradora - ICT
Resumo:
Pós-graduação em Zootecnia - FMVZ
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Dirigir é uma tarefa altamente complexa que requer sincronia entre informações adquiridas e comandos motores, sendo a visão fonte primordial de recursos para o controle do volante por parte do motorista, para que este possa fazer a manobra na quantidade correta e no momento apropriado. Simulações nem sempre preservam os aspectos relevantes do ambiente. O ponto tangente (PT), local mais interno da curva, é onde os motoristas olham em situações de curva ao conduzir um veículo durante contexto natural, e, de acordo com a literatura, este fenômeno também ocorre em situações experimentais com o uso de simuladores específicos de trânsito. Este estudo visa verificar se este comportamento se reproduz em situação simulada de videogame e como a experiência de dirigir naturalmente afeta o desempenho na simulação. Foram recrutados vinte participantes, divididos em dois grupos de dez pessoas cada, com e sem Carteira Nacional de Habilitação e todos com experiência em videogame. A tarefa foi conduzir um veículo em circuito gerado por um jogo de videogame, enquanto seus olhos, e seus respectivos movimentos, foram monitorados e gravados por sistema eye-tracker. Para análise dos dados, foi utilizado o vídeo da imagem gerada pelo videogame com a adição do cursor referente ao olhar do participante. Foram analisadas apenas as situações nas quais os participantes executavam a manobra de cada uma das onze curvas do percurso, utilizando o software ASL Results Plus (versão 1.8.2.18) para estabelecer Áreas de Interesse (AI) de 3º e 10º ao redor do ponto tangente da curva. As variáveis dependentes foram Número Total de Fixações (NF) e Duração Total das Fixações (DF). Os dados foram submetidos à análise de variância de medidas repetidas, tendo fatores grupo (HA ou NH), AI (outros 3º ou 10º) e curvas (onze curvas). Não houve efeito significativo de grupo para ambas as variáveis dependentes. Houve efeito principal de...
Resumo:
Dirigir é uma tarefa altamente complexa que requer sincronia entre informações adquiridas e comandos motores, sendo a visão fonte primordial de recursos para o controle do volante por parte do motorista, para que este possa fazer a manobra na quantidade correta e no momento apropriado. Simulações nem sempre preservam os aspectos relevantes do ambiente. O ponto tangente (PT), local mais interno da curva, é onde os motoristas olham em situações de curva ao conduzir um veículo durante contexto natural, e, de acordo com a literatura, este fenômeno também ocorre em situações experimentais com o uso de simuladores específicos de trânsito. Este estudo visa verificar se este comportamento se reproduz em situação simulada de videogame e como a experiência de dirigir naturalmente afeta o desempenho na simulação. Foram recrutados vinte participantes, divididos em dois grupos de dez pessoas cada, com e sem Carteira Nacional de Habilitação e todos com experiência em videogame. A tarefa foi conduzir um veículo em circuito gerado por um jogo de videogame, enquanto seus olhos, e seus respectivos movimentos, foram monitorados e gravados por sistema eye-tracker. Para análise dos dados, foi utilizado o vídeo da imagem gerada pelo videogame com a adição do cursor referente ao olhar do participante. Foram analisadas apenas as situações nas quais os participantes executavam a manobra de cada uma das onze curvas do percurso, utilizando o software ASL Results Plus (versão 1.8.2.18) para estabelecer Áreas de Interesse (AI) de 3º e 10º ao redor do ponto tangente da curva. As variáveis dependentes foram Número Total de Fixações (NF) e Duração Total das Fixações (DF). Os dados foram submetidos à análise de variância de medidas repetidas, tendo fatores grupo (HA ou NH), AI (outros 3º ou 10º) e curvas (onze curvas). Não houve efeito significativo de grupo para ambas as variáveis dependentes. Houve efeito principal de...
Resumo:
Em testes nos quais uma quantidade considerável de indivíduos não dispõe de tempo suciente para responder todos os itens temos o que é chamado de efeito de Speededness. O uso do modelo unidimensional da Teoria da Resposta ao Item (TRI) em testes com speededness pode nos levar a uma série de interpretações errôneas uma vez que nesse modelo é suposto que os respondentes possuem tempo suciente para responder todos os itens. Nesse trabalho, desenvolvemos uma análise Bayesiana do modelo tri-dimensional da TRI proposto por Wollack e Cohen (2005) considerando uma estrutura de dependência entre as distribuições a priori dos traços latentes a qual modelamos com o uso de cópulas. Apresentamos um processo de estimação para o modelo proposto e fazemos um estudo de simulação comparativo com a análise realizada por Bazan et al. (2010) na qual foi utilizada distribuições a priori independentes para os traços latentes. Finalmente, fazemos uma análise de sensibilidade do modelo em estudo e apresentamos uma aplicação levando em conta um conjunto de dados reais proveniente de um subteste do EGRA, chamado de Nonsense Words, realizado no Peru em 2007. Nesse subteste os alunos são avaliados por via oral efetuando a leitura, sequencialmente, de 50 palavras sem sentidos em 60 segundos o que caracteriza a presença do efeito speededness.
Resumo:
É muito importante para a indústria fornecer produtos competitivos e que exerçam corretamente as suas funções perante o cliente. Uma das ferramentas existentes para atingir estes objetivos é a realização de testes de fadiga e durabilidade cada vez mais refinados e em espaço mais curto de tempo. Uma das maneiras de se executar testes de fadiga mais precisos é utilizando parâmetros que sejam fiéis à solicitação que o produto sofre durante o seu uso. Com esse intuito surgiram os testes de fadiga sob amplitude variável. Juntamente com eles surgem as particularidades deste tipo de solicitação, que é de natureza complexa. Algumas particularidades são a dependência do resultado na história de carregamento (também chamada de \"interação de cargas\") e a variação abrupta do nível de carga durante o tempo de aplicação. Fenômenos estes chamados de sobrecarga ou subcarga (overload e underload), que aqui serão agrupados, muitas vezes de forma simplista, de perturbações no espectro de fadiga. A finalidade principal deste trabalho é descrever a influência das perturbações ocorridas nas solicitações nos testes de fadiga em regime de amplitude variável, mais precisamente em testes de bancada, em que se busca a reprodução de situações de trabalho reais de um componente. Apesar de esse assunto ser alvo de diversas investigações recentes, nenhum trabalho tem como foco a influência das paradas (completa remoção de carga) realizadas durante um teste de fadiga acelerado. Essas paradas são extremamente comuns na prática laboratorial, seja por manutenção do equipamento, inspeção da amostra ou necessidade de operação. O objeto alvo de estudo nesta pesquisa é um suporte metálico de buzina, utilizado em automóveis de passeio. Apesar de sua concepção simples, tal componente é responsável por exercer funções importantes e é sujeito a uma interessante gama de solicitações. Como resultado observou-se que a aplicação das paradas durante os testes de fadiga simulados no componente automotivo, provoca variações em sua vida útil total. E o tempo de parada também exerce influência nesta variação observada. Essas paradas não se encaixam perfeitamente nas classificações de perturbações no espectro registradas na literatura. Por esse motivo o trabalho se propõe ainda a sintetizar e uniformizar a terminologia para as variações abruptas de tensão aplicadas no tempo (as sobrecargas e as subcargas), tendo em vista que ocorre a falta de consenso entre os termos utilizados atualmente na literatura e seus respectivos conceitos.
Resumo:
Introdução: Crianças com transtorno fonológico (TF) apresentam dificuldade na percepção de fala, em processar estímulos acústicos quando apresentados de forma rápida e em sequência. A percepção dos sons complexos da fala, dependem da integridade no processo de codificação analisado pelo Sistema Nervoso Auditivo. Por meio do Potencial Evocado Auditivo de Tronco Encefálico com estímulo complexo (PEATEc) é possível investigar a representação neural dos sons em níveis corticais e obter informações diretas sobre como a estrutura do som da sílaba falada é codificada no sistema auditivo. Porém, acredita-se que esse potencial sofre interferências tanto de processos bottom-up quanto top-down, o que não se sabe é quanto e como cada um desses processos modifica as respostas do PEATEc. Uma das formas de investigar a real influência dos aspectos top-down e bottom-up nos resultados do PEATEc é estimulando separadamente esses dois processos por meio do treinamento auditivo e da terapia fonoaudiológica. Objetivo: Verificar o impacto da estimulação sensorial (processamento bottom-up) e cognitiva (processamento top-down), separadamente, nos diferentes domínios da resposta eletrofisiológica do PEATEc. Método: Participaram deste estudo 11 crianças diagnosticadas com TF, com idades entre 7 e 10:11, submetidas a avaliação comportamental e eletrofisiológica e então dividas nos grupos Bottom-up (B-U) (N=6) e Top-down T-D (N=5). A estimulação bottom-up foi voltada ao treinamento das habilidades sensoriais, através de softwares de computador. A estimulação top-down foi realizada por meio de tarefas para estimular as habilidades cognitiva por meio do Programa de Estimulação Fonoaudiológica (PEF). Ambas as estimulações foram aplicadas uma vez por semana, num período de aproximadamente 45 minutos por 12 semanas. Resultados: O grupo B-U apresentou melhoras em relação aos domínios onset e harmônicos e no valor da pontuação do escore após ser submetido à estimulação bottom-up. Por sua vez, após serem submetidos à estimulação top-down, o grupo T-D apresentou melhoras em relação aos domínios onset, espectro-temporal, fronteiras do envelope e harmônicos e para os valores da pontuação do escore. Conclusão: Diante dos resultados obtidos neste estudo, foi possível observar que a estimulação sensorial (processamento bottom-up) e a estimulação cognitiva (processamento top-down) mostraram impactar de forma diferente a resposta eletrofisiológica do PEATEc
Resumo:
A engenharia é a ciência que transforma os conhecimentos das disciplinas básicas aplicadas a fatos reais. Nosso mundo está rodeado por essas realizações da engenharia, e é necessário que as pessoas se sintam confortáveis e seguras nas mesmas. Assim, a segurança se torna um fator importante que deve ser considerado em qualquer projeto. Na engenharia naval, um apropriado nível de segurança e, em consequência, um correto desenho estrutural é baseado, atualmente, em estudos determinísticos com o objetivo de obter estruturas capazes de suportar o pior cenário possível de solicitações durante um período de tempo determinado. A maior parte das solicitações na estrutura de um navio se deve à ação da natureza (ventos, ondas, correnteza e tempestades), ou, ainda, aos erros cometidos por humanos (explosões internas, explosões externas e colisões). Devido à aleatoriedade destes eventos, a confiabilidade estrutural de um navio deveria ser considerada como um problema estocástico sob condições ambientais bem caracterizadas. A metodologia probabilística, baseada em estatística e incertezas, oferece uma melhor perspectiva dos fenômenos reais que acontecem na estrutura dos navios. Esta pesquisa tem como objetivo apresentar resultados de confiabilidade estrutural em projetos e planejamento da manutenção para a chapa do fundo dos cascos dos navios, as quais são submetidas a esforços variáveis pela ação das ondas do mar e da corrosão. Foram estudados modelos estatísticos para a avaliação da estrutura da viga-navio e para o detalhe estrutural da chapa do fundo. Na avaliação da estrutura da viga-navio, o modelo desenvolvido consiste em determinar as probabilidades de ocorrência das solicitações na estrutura, considerando a deterioração por corrosão, com base numa investigação estatística da variação dos esforços em função das ondas e a deterioração em função de uma taxa de corrosão padrão recomendada pela DET NORSKE VERITAS (DNV). A abordagem para avaliação da confiabilidade dependente do tempo é desenvolvida com base nas curvas de resistências e solicitações (R-S) determinadas pela utilização do método de Monte Carlo. Uma variação estatística de longo prazo das adversidades é determinada pelo estudo estatístico de ondas em longo prazo e ajustada por uma distribuição com base numa vida de projeto conhecida. Constam no trabalho resultados da variação da confiabilidade ao longo do tempo de um navio petroleiro. O caso de estudo foi simplificado para facilitar a obtenção de dados, com o objetivo de corroborar a metodologia desenvolvida.
Resumo:
Neste trabalho pretende-se estudar a influência das características geotécnicas e geométricas no dimensionamento de cortinas de contenção ancoradas. Para a concretização destes objetivos escolheu-se uma parede tipo Berlim definitivo ancorada, tendo-se abordado o seu processo construtivo e constatado a necessidade de o seguir com rigor. Concluído isto, fez-se uma introdução ao programa de elementos finitos, Phase2, da Rocsciense. A parte mais importante da presente dissertação visa perceber o funcionamento deste tipo de construção e o que mais influencia o seu comportamento. Após se ter admitido um modelo, as características do solo a utilizar, e compreendido de que forma poderia ser utilizado o software mencionado e como proceder à modelação que mais se aproxima de uma situação real, simulou-se o caso de estudo considerado e efetuou-se a sua análise do ponto de vista de deslocamentos horizontais na cortina. Esta primeira análise resultou em deslocamentos que, comparados com os dos casos de estudo referidos na bibliografia, se consideram aceitáveis. Após análise do estudo base, que será designado ao longo do trabalho por estudo base 1 (E1), procedeu-se a uma análise paramétrica, ou seja, realizaram-se vários estudos, onde para cada um deles se fez variar um parâmetro de cada vez. Esses parâmetros são propriedades geotécnicas do solo, características geométricas da parede e características dos elementos de ancoragem. No estudo 2, também designado por E2, utiliza-se uma parede moldada em substituição do muro de Berlim definitivo utilizado no E1. Estes estudos paramétricos vão desde o Estudo 2 (E2) ao Estudo 15 (E15) e todos eles são apresentados em comparação com o estudo base. Por fim, conclui-se que o comportamento entre o muro de Berlim definitivo e a parede moldada são diferentes, sobretudo na distribuição de deslocamentos ao longo da cortina, sendo esta diferença provocada essencialmente pelas diferenças no processo construtivo. Quanto à alteração dos parâmetros em estudo os que mais afetam o comportamento do muro são a variação do módulo de deformabilidade do solo, a presença de um estrato rijo ao nível do fundo da escavação, a variação da inclinação das ancoragens e a força de pré-esforço aplicada.
Resumo:
Analisamos os determinantes de precificação de Certificados de Recebíveis Imobiliários (CRIs) com relação ao ativo objeto e níveis de garantias, controlando por variáveis de tamanho, prazo e rating. Verifica-se um prêmio médio adicional em CRIs de 1,0 p.p. quando comparados com debêntures de prazos semelhantes e de mesmo rating. A justificativa desse prêmio é analisada em duas frentes: (a) apesar de CRI seguir relativa padronização, encontramos que o papel pode representar diferentes níveis de risco e ativos-objeto; e (b) essa falta de padronização leva a níveis de precificação diferenciados por suas características específicas de riscos. Os diferentes níveis de risco são percebidos pelas diversas garantias utilizadas sendo que 41% das emissões possuem garantias pessoais de originadores (aval ou fiança). Conclui-se que existe, em geral, uma diferença de retornos positiva (o spread médio na emissão dos CRIs indexados à inflação foi de 321 bps superior à curva de juros de mercado), sendo mais preponderante a depender do segmento (prêmio para os segmentos residencial e loteamentos) e mitigado pelo nível de garantias oferecido. É possível verificar um prêmio médio de 1,4 p.p. para os segmentos residencial e de loteamentos. Algumas características das emissões foram analisadas como controle (tamanho, prazo e, por fim, das notas e origem da agência avaliadora de rating). Os CRIs de maior volume e maior prazo apresentam spreads menores. Quanto ao rating, os CRIs apresentam efeitos diversos a depender do segmento. Para CRIs residenciais, o efeito é positivo (redução de spread) caso a emissão seja avaliada por alguma agência de rating, enquanto que para os CRIs comerciais, o efeito é negativo. O efeito pode ser positivo para os CRIs comerciais (redução de spread) em caso de avaliação por agência de rating internacional ou possuir notas de rating superiores à nota ‘A’.
Resumo:
Reverberation is caused by the reflection of the sound in adjacent surfaces close to the sound source during its propagation to the listener. The impulsive response of an environment represents its reverberation characteristics. Being dependent on the environment, reverberation takes to the listener characteristics of the space where the sound is originated and its absence does not commonly sounds like “natural”. When recording sounds, it is not always possible to have the desirable characteristics of reverberation of an environment, therefore methods for artificial reverberation have been developed, always seeking a more efficient implementations and more faithful to the real environments. This work presents an implementation in FPGAs (Field Programmable Gate Arrays ) of a classic digital reverberation audio structure, based on a proposal of Manfred Schroeder, using sets of all-pass and comb filters. The developed system exploits the use of reconfigurable hardware as a platform development and implementation of digital audio effects, focusing on the modularity and reuse characteristics
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios