98 resultados para Fidedignidade e validade
Resumo:
Recentemente, tem sido questionada a validade do teorema de Migdal nos fuieretos dopados supercondutores. Motivados por esse problema, realizamos nesta dissertação uma revisão das propriedades físicas destes novos e notáveis materiais: os fulerenos e outros representantes desta família de compostos orgânicos que possuem estrutura geométrica de gaiola fechada. Em primeiro lugar abordamos, ainda que de maneira sucinta, alguns fundamentos da teoria microscópica BCS (Bardeen, Cooper e Schrieffer, 1961) da supercondutividade, tais como o problema da instabilidade do líquido de Fermi, a formação de pares de Cooper, o método da transformação canônica para demonstrar o aparecimento da interação efetiva atrativa entre os elétrons do par, as equações de Gor'kov demonstrando o surgimento do gap supercondutor, e a expressão BCS da temperatura crítica no limite de acoplamento fraco. Após, revisamos o trabalho realizado por Grimaldi, Cappelluti e Pietronero (1995), sobre a supercondutividade não adiabática nos fuieretos dopados, no qual são feitas correções de vértice para a interação elétron-fônon, usando o método perturbativo. Naquele trabalho eles utilizam um modelo de fônons de Einstein com uma única freqüência para caracterizar a função espectral de Eliashberg, necessária para obter tais correções de vértice Nossa proposta neste trabalho é generalizar este modelo por um constituído de várias Lorentzianas truncadas, centradas nas freqüências dos principais modos de vibração da rede cristalina: os intermoleculares, os ópticos e os intramoleculares. Encontramos como resultado deste estudo que as correções de vértice, com contribuição multifonônica, introduzem modificações substancias como um aumento da temperatura crítica e variação no coeficiente isotópico, dando resultados mais próximos dos obtidos experimentalmente, em contraste daqueles obtidos na teoria de Migdal-Eliashberg, sem correções de vértice.
Resumo:
O estudo do envolvimento do consumidor representa um dos tópicos mais importantes de pesquisa para aqueles que visam entender a forma como os seres humanos realizam suas decisões de compra. O envolvimento determina a quantidade de esforços empregados no processo de tomada de decisão, e apresenta importantes implicações tanto para o âmbito acadêmico quanto para o meio gerencial. No que diz respeito ao ambiente brasileiro, no entanto, foram poucos os trabalhos que se dedicaram exclusivamente a esse tema, não havendo, até o início desta pesquisa, nenhuma escala para mensuração de envolvimento validada para este cenário. O objetivo deste estudo é a avaliação da aplicabilidade da escala de Jain & Srinivasan (1990) na cidade de Porto Alegre. Tal escala, denominada New Involvement Profile (NIP), pode ser utilizada para mensuração do envolvimento de consumidores com diferentes categorias de produtos. Para esta pesquisa, mensurou-se o envolvimento com relação aos produtos cerveja, chocolate, corte de cabelo, CD, aparelho de televisão, detergente, shampoo e pilha. A escala NIP foi reaplicada a uma amostra de 420 (quatrocentos e vinte) respondentes em diversos bairros desta cidade. A qualidade e a robustez da escala de Jain & Srinivasan (1990) foram comprovadas através de testes de confiabilidade e verificações da validade de conteúdo e de constructo, englobando validade convergente e discriminante de cada dimensão da escala. Tal avaliação foi complementada a partir da relação existente entre os níveis de envolvimento encontrados e os pressupostos teóricos acerca desse conceito – tipos e determinates, bem como da comparação entre esses níveis e aqueles obtidos pelos mesmos produtos em estudos semelhantes.
Resumo:
Esta dissertação apresenta o desenvolvimento de uma nova escala para mensuração de simbolismo no comportamento do consumidor. Através de uma vasta revisão de literatura, o construto simbolismo foi delimitado dentro do escopo teórico da disciplina de comportamento do consumidor. Suas origens na psicanálise e na semiótica foram especificadas, além de outras vertentes teóricas indispensáveis para a compreensão da pesquisa, como brand equity e a evolução da pesquisa em comportamento do consumidor. Delineado o construto e detectada a ausência de uma escala que o mensurasse adequadamente e em todas as suas dimensões, foi desenvolvida, seguindo o paradigma de Churchill (1979) para o desenvolvimento de novas escalas, uma nova escala para mensurar simbolismo de marca. Coletados os dados e refinadas as variáveis que compõem a escala, chegouse a uma versão final da nova escala que, testada, apresenta índices de confiabilidade e validade aceitáveis para o estudo exploratório desenvolvido. Apresenta-se, como resultado do trabalho, além da nova escala, composta de 21 itens e quatro dimensões, um modelo de simbolismo no comportamento do consumidor. Discute-se, também, as implicações teóricas e gerenciais da escala e do modelo para o avanço dos estudos de simbolismo no comportamento do consumidor.
Resumo:
Com um volume considerável de publicações nacionais e internacionais sobre a satisfação de clientes, uma ênfase cada vez maior tem sido dada para o processo de avaliação pós-compra do consumidor. Porém, o processo de satisfação é insuficiente para explicar muitos dos comportamentos que o consumidor manifesta após o consumo. Além de confrontar o recebido com o esperado, gerando julgamentos de satisfação ou insatisfação, o consumidor confronta o recebido com o que teria acontecido se outra opção tivesse sido feita. É justamente nesta confrontação entre o recebido e o que poderia ter sido recebido que surge o arrependimento. O arrependimento é pouco abordado na literatura brasileira de comportamento do consumidor. Além disso, as escalas que o medem são escassas e o fazem de forma incompleta. Posto isso, o principal objetivo dessa dissertação é o de propor uma escala que meça o arrependimento no processo de tomada de decisão do consumidor, considerando aspectos afetivos e cognitivos desse construto. Para tanto, procedeu-se a uma análise de validação de construto para a escala proposta em duas amostras distintas: consumidores de automóveis e de calçados femininos. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade e validade convergente para as dimensões hipotetizadas. A validade divergente não foi evidenciada e é um ponto de discussão. As implicações desse estudo e sugestões para estudos futuros são apresentadas.
Resumo:
Apesar do grande número de publicações nacionais e internacionais que dão destaque à satisfação do cliente, a compreensão do que ocorre com o mesmo quando ele experiencia um sentimento que vai além da satisfação na avaliação pós-consumo ainda é incipiente. O fato de vivenciar esse sentimento gera um estado emocional profundamente positivo para com a experiência de compra ou consumo, que é conhecido como "encantamento do cliente". Apesar da importância desse constructo no estudo do comportamento do consumidor – dadas as diversas atitudes pós-compra/consumo que podem ser oriundas desse estado –, as escalas desenvolvidas até o presente momento para sua mensuração foram poucas e o fizeram de maneira incompleta. Nesse sentido, o objetivo maior desta dissertação é propor uma escala que meça o encantamento do cliente na avaliação pós-consumo, levando em conta as dimensões do constructo. Para tanto, utilizaram-se três estudos sucessivos; os dois primeiros objetivaram purificar a escala proposta, e o terceiro procedeu à validação de constructo. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade, validade convergente e validade discriminante para as dimensões do constructo estudado. Considerações finais discutem os achados do estudo, suas implicações gerenciais e acadêmicas, assim como sugestões para a continuidade das pesquisas sobre o tema.
Resumo:
Com base em uma abordagem hermenêutica, esta Dissertação procura analisar a formação de professores, buscando compreender os horizontes discursivos que demarcam os sentidos da pesquisa na política oficial para a educação básica. Para tanto, tomei como corpus de investigação as Diretrizes Curriculares Nacionais para a Formação de Professores, articulando-as a um conjunto de documentos que regulamentam a atual política de formação de professores no Brasil. Nesses documentos, a pesquisa é introduzida como elemento essencial da formação, sendo compreendida como um conjunto de procedimentos metodológicos que tem como objeto de estudo as práticas pedagógicas relacionadas ao ensino/aprendizagem dos conteúdos escolares. Na política oficial, o sentido da pesquisa encontra-se diretamente vinculado ao aperfeiçoamento das práticas pedagógicas, onde a construção de competências operacionais torna-se condição necessária para a resolução de problemas práticos em sala de aula Ao estabelecer uma articulação entre Hermenêutica e Educação, situo as discussões sobre a formação do professor-pesquisador em um novo horizonte compreensivo, onde questões referentes ao método e técnicas de pesquisa, à objetividade e validade científica, abrem espaço para outras tematizações, tais como: a importância da pergunta e do diálogo na realização da pesquisa, a experiência como aspecto singular da formação e a abertura para o encontro do professor-pesquisador com o seu outro. Com isso, intencionei não apenas incluir novos elementos para se pensar a pesquisa, mas sobretudo, colocar em questão os pressupostos que orientam a política oficial de formação de professores.
Resumo:
Este trabalho visa realizar o estudo do comportamento dinâmico de um eixo rotor flexível, modelado segundo a teoria de Euler-Bernoulli e caracterizar as respostas periódicas de sistemas LTI (sistemas lineares invariantes no tempo) e sistemas fracamente não lineares de ordem arbitrária. Para tanto, é utilizada a base dinâmica gerada pela resposta impulso ou solução fundamental. O comportamento dinâmico de um eixo rotor flexível foi discutido em termos da função de Green espacial e calculada de maneira não-modal. Foi realizado um estudo do problema de autovalor para o caso de um um eixo rotor biapoiado. As freqüências são obtidas e os modos escritos em termos da base dinâmica e da velocidade de rotação. As respostas periódicas de sistemas LTI, utilizadas nas aproximações com sistemas fracamente não lineares, são obtidas, independentemente da ordem do sistema, como um operador integral onde o núcleo é a função de Green T-periódica. Esta função é caracterizada em termos das propriedades de continuidade, periodicidade e salto da função de Green T-periódica, e da base dinâmica Simulações foram realizadas para sistemas concentrados, matriciais e escalares, com o objetivo de mostrar a validade da metodologia desenvolvida com as propriedades da função de Green T-periódica. Foi abordado um modelo não-linear para uma centrífuga utilizada na indústria textil [Starzinski, 1977].
Resumo:
O estudo do comportamento de adoção de produtos e serviços baseados em tecnologia pelo consumidor tem representado um dos principais desafios para a área de marketing, pois, em meio à intensa proliferação destes produtos, diversos estudos apontam a crescente frustração do consumidor para interagir com a tecnologia. Tais evidências são especialmente importantes à medida que as crenças do consumidor estão positivamente relacionadas a sua aceitação ou resistência em adotar produtos e serviços tecnológicos. Nesse contexto, a prontidão para tecnologia emerge como constructo fundamental para o entendimento das atitudes do consumidor diante da tecnologia, e diz respeito à propensão dos indivíduos a adotar produtos e serviços tecnológicos a partir de condutores e inibidores mentais relacionados ao otimismo, inovatividade, desconforto e insegurança. A Technology Readiness Index (TRI) é o instrumento de medida desenvolvido por Parasuraman (2000) e Parasuraman & Colby (2001), para mensuração da prontidão para tecnologia dos consumidores. Este estudo teve como objetivo avaliar a aplicabilidade da TRI no contexto brasileiro, por meio da reaplicação do instrumento de medida a uma amostra de 731 consumidores, maiores de 18 (dezoito) anos, na cidade de Porto Alegre. Embora se tenha verificado uma estrutura subjacente à prontidão para tecnologia ligeiramente modificada, com 6 fatores, considera-se a TRI um instrumento válido para mensuração da prontidão para tecnologia dos consumidores. A qualidade da TRI foi comprovada através do exame da validade de conteúdo e de constructo. A validade de constructo foi verificada via avaliação da unidimensionalidade, confiabilidade, validade convergente e discriminante de cada dimensão da escala. Tal avaliação foi complementada com o exame da associação dos escores dos respondentes da TRI com as questões sobre posse e uso de produtos e serviços tecnológicos. Este estudo oferece algumas evidências sobre a capacidade da TRI de distinguir usuários de não usuários destes produtos e de predizer comportamentos de adoção.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.
Resumo:
Este trabalho trata de uma pesquisa junto aos soldadores de três empresas do setor metal-mecânico, em diferentes estágios tecnológicos, para levantamento e avaliação de sua demanda ergonômica por meio de método participativo, como contribuição para o projeto de seus postos de trabalho. Verificou-se que os problemas mais críticos para estes profissionais são de natureza ambiental, tendo sido questionada a validade dos valores limites estabelecidos de exposição a fumos de soldagem. Além disso, foi constatada a maior influência do fator empresa sobre a opinião e satisfação dos soldadores, com exceção da empresa onde está estabelecido um programa de ergonomia: nesta o nível de exigência dos soldadores é maior, portanto, os fatores pessoais representam maior impacto sobre sua opinião e satisfação. Também foi avaliado o impacto do nível tecnológico da empresa sobre os soldadores, concluindo-se que os que trabalham com sistemas de produção mais manual têm maior envolvimento com seu trabalho, enquanto os soldadores que participam de sistema mais automatizado não estão, necessariamente, livres de problemas relacionados a questões ambientais. Assim, é tão importante considerar as questões ambientais desde a concepção de uma fábrica, quanto as questões de organização do trabalho, pois ambas impactam no bemestar e, conseqüentemente, na produtividade de seus trabalhadores.
Resumo:
Este trabalho constitui-se de um estudo acerca da aplicabilidade da escala multidimensional para mensuração de brand equity baseada no consumidor, desenvolvida por Yoo e Donthu (2001) no contexto brasileiro. A escala foi reaplicada a uma amostra de 263 entrevistados, via internet. A avaliação da escala através de análise fatorial exploratória e de análise fatorial confirmatória verificou a sua validade para o contexto brasileiro. A escala multidimensional de brand equity é composta de três dimensões desenvolvidas com base nos estudos de Kevin L. Keller e David A. Aaker: qualidade percebida, lealdade e lembrança e associações à marca.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.
Resumo:
Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.