1000 resultados para hipóteses testáveis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho desenvolve-se na área da Lingüística Aplicada ao Ensino do Espanhol como Língua Estrangeira. O propósito é o de examinar as provas de espanhol dos vestibulares de três Instituições de Ensino Superior de Porto Alegre e Grande Porto Alegre, Rio Grande do Sul, Brasil, no período compreendido entre os anos de 1996 a 2000, para depreender delas o tipo de conhecimento lingüístico exigido do candidato. Empregamos como base metodológica a avaliação formativa, com enfoque qualitativo na interpretação das informações e quantitativo na coleta e exposição dos dados, resultando em um quadro descritivo da realidade das provas examinadas. O estudo caracteriza-se como exploratório, sem levantamento de hipóteses. A falta de pesquisas sobre as provas de espanhol nos vestibulares, e de literatura específica sobre o assunto resultou na busca de uma base teórica que desse suporte a uma análise clara e ajustada ao objetivo. Teóricos clássicos como Saussure (1974), Bloom (1983) até autores contemporâneos como Ortega Olivares (1990), Orlandi (1987) e Wiggins e McThige (1998) constituíram o referencial teórico do trabalho. A análise das provas de espanhol foi organizada tendo em vista os conceitos de Orlandi sobre tipos de discurso, o de Wiggins e MacThige sobre os tipos de perguntas de compreensão e de Ortega Olivares sobre o conceito de gramática. Os resultados apontam para a presença dos discursos autoritário, lúdico e polêmico com a predominância desse último. As perguntas de unidade preponderam sobre as do tipo essencial e o conhecimento gramatical, em grande parte, ainda de base estruturalista indicam que uma nova postura deva ser adotada em relação à elaboração das provas de vestibular e à abordagem do conteúdo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa procurou demonstrar que o aspecto progressivo representa a opção disponibilizada pela língua portuguesa para que o falante, diante de determinadas situações, possa se referir apenas ao fragmento manifesto, revelando, assim, o seu desejo de se comprometer somente com a parte da verdade evidenciada pela situação. Quando uma situação é apresentada com um verbo de estado, os falantes de língua inglesa, para atingir o mesmo objetivo, utilizam perífrases dos verbos de estado. Foram selecionados verbos de estado que expressam estados mentais/cognitivos para testar as hipóteses, porque a mitigação de comprometimento revelou ser mais claramente observável em enunciados com este tipo de verbos. Os resultados obtidos evidenciaram que os falantes de ambas as línguas distinguem situações completas de incompletas e que optam por mais de uma forma para expressar menor comprometimento, e não somente pela forma do aspecto progressivo quando, após interpretar uma situação como incompleta, desejam manifestar-se a respeito dela. Os falantes de ambas as línguas também utilizaram formas no perfectivo + perífrase modalizadora e perífrases dos verbos de estado no progressivo. A opção pelo uso destas formas, para ser fiel à verdade de sua interpretação da situação como não-completa, indiciou que há uma avaliação de grau de comprometimento por parte do falante. Os resultados apontam para a possibilidade de que o aspecto progressivo atue como um modal epistêmico, não obstante o fato de o falante poder expressar comprometimento parcial também através de outras formas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo testou a existência do efeito clientela no cenário brasileiro, verificando se o preço das ações que pagaram dividendos durante os anos de 1996 a 1998 comportou-se conforme o modelo de Elton e Gruber (1970). Além disso, verificou a existência de alguma anormalidade no retomo das ações no primeiro dia ex-dividend. Em relação ao modelo de Elton e Gruber, dos 620 eventos analisados, em apenas quatro casos, o valor da ação no 10 dia após o pagamento do dividendo situou-se dentro do intervalo teórico esperado. Trinta por cento dos eventos apresentaram um resultado surpreendente, em que o preço da ação no primeiro dia ex-dividend foi maior do que na data em que a ação tinha direito de receber dividendos. Essas constatações contrariam as expectativas do modelo, e esse comportamento pode ser considerado irracional, já que se estaria pagando mais por uma ação sem direito a dividendos, do que quando esta tinha direito a recebê-lo. O cálculo dos retornos anormais evidenciou um retomo anormal médio positivo no primeiro dia exdividend de 5,2% para a amostra total e de 2,4% para a amostra sem outliers. Além disso, constataram-se retornos anormais significativos a 5% e 1% em outros dias da janela do evento, o que demonstra o comportamento anormal do mercado desses papéis nesse período. O retomo anormal cumulativo (CAR) apresentou um retomo residual de 5% no 50 dia ex-dividend para a amostra total e 2% após a exclusão dos outliers, o que significa que as empresas que distribuíram dividendos obtiveram um retomo anormal no preço de suas ações durante a janela do evento. Verificou-se, ainda, uma relação diretamente proporcional entre o yield da ação e os resultados anormais encontrados em ambas as hipóteses. Isso se deve à redução de incerteza e à minimização do risco do investidor. As empresas que optaram por pagar altos dividendos em valores absolutos e yields elevados para as suas ações apresentaram retornos anormais médios superiores aos demais. Enfim, os resultados encontrados não identificaram evidências de efeito clientela no mercado acionário brasileiro. Pode-se dizer que a formação de preços das ações que distribuem dividendos no Brasil está bem mais relacionada à minimização da incerteza do investidor do que influenciada pela interferência tributária nos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como objetivo central investigar o impacto do gerenciamento de reclamações na confiança e lealdade do consumidor, em trocas de serviços relacionais. Para tanto, foi desenvolvido e testado um modelo teórico, que retrata os inter-relacionamentos entre avaliações específicas do processo de reclamação e construtos relacionais. Desta forma, o presente estudo relaciona três importantes correntes de pesquisa - teoria da justiça, gerenciamento de reclamações e estudos sobre confiança. De modo geral, os resultados obtidos através da Modelagem de Equações Estruturais confirmam 10 das 12 hipóteses estabelecidas a partir do modelo teórico proposto. Mais especificamente, os resultados indicam que as percepções de justiça distributiva, interpessoal e processual afetam significativamente a percepção global de justiça e o nível de satisfação do consumidor com o gerenciamento da reclamação. A confiança do consumidor após a reclamação é influenciada diretamente pelo nível de satisfa ção final alcançado e pelas experiências anteriores do consumidor com a empresa. Por fim, o grau de lealdade do consumidor é influenciado pela confiança do consumidor e pelo valor relacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo da apreciação estética de jovens e adultos que se encontram na escola com a intenção de concluir seus estudos no Ensino Fundamental. Buscamos revelar o que pensam, o que mexe com sua sensibilidade, enfim, como vêem o mundo. Para isso, fazemos uma breve recapitulação da história do ensino de arte no Brasil, e um apanhado histórico do sentido do termo estética, como forma de situar nosso trabalho. Incluímos também uma reflexão que envolve não só a estética e a arte, mas também a educadora e suas construções, relacionadas a suas vivências, processos de formação, e o papel da educação estética na escola. Constitui-se assim uma dialética que envolve a realidade pesquisada, a pesquisadora e as teorias que dão sustentação ao trabalho. Os referenciais teóricos da construção do conhecimento de Piaget permeiam o texto, aliados a uma concepção socializadora da arte, no sentido de entender e afirmar os processos criativos como possíveis de serem desenvolvidos por todos os homens e mulheres. A apreciação estética dos jovens e adultos mostra-se, através da escolha de imagens, que, quando analisadas, nos surpreendem, pois nos revelam um olhar voltado à realidade e uma apreciação sensível, humana e profundamente ética, uma realidade diferente das hipóteses que tínhamos ao iniciar este trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante o resgate do material arqueológico dos sítios da região de Piratuba, SC, e de Aratiba, Machadinho e Maximiliano de Almeida, RS, área de influência da Usina Hidroelétrica de Machadinho, foram observadas grandes quantidades de ossos e escamas de peixes incorporando os restos alimentares encontrados nestes locais. Utilizando uma coleção osteológica de referência pudemos identificar restos de Salminus maxillosus Valenciennes, 1850, Brycon orbignyanus (Valenciennes, 1849), Pogonopoma obscurum Quevedo & Reis, 2002, Hemiancistrus fuliginosus Cardoso & Malabarba, 1999, Prochilodus lineatus (Valenciennes, 1836), Schizodon sp., Leporinus sp., Hoplias sp., Hypostomus sp. e Crenicichla sp. Com base em medições realizadas em exemplares de coleções, foram obtidas regressões a partir das dimensões do osso pré-maxilar em Crenicichla spp. e do esporão peitoral em Hemiancistrus fuliginosus, Pogonopoma obscurum e Hypostomus spp. correlacionadas com o comprimento padrão e peso dos espécimes. A partir das estimativas de comprimento padrão e peso das peças ósseas encontradas foi possível formular hipóteses sobre a tecnologia de pesca utilizada pelos habitantes destes sítios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa realizada avalia a relação entre o projeto de um Web Site1 comercial e o Flow, e a influência desse estado cognitivo sobre a comunicação de marketing do Site. É desenvolvida a partir de três perspectivas: perspectiva tecnológica do meio, mercadológica da organização e psicológica do usuário. O enfoque da pesquisa está voltado para a perspectiva humana, onde sugere que o Flow, um estado cognitivo decorrente de um processo de interação, traz reflexos positivos às comunicações de marketing de Web Sites comerciais. As três hipóteses levantadas para responder a questão de pesquisa são: H1: As características do design gráfico e arquitetura do Web Site influenciam no nível da experimentação do Flow. H2: O usuário que experimenta o Flow interage com mais profundidade com o ambiente mediado, visitando mais páginas e permanecendo mais tempo no Web Site e, por conseqüência, ficando mais exposto as comunicações emanadas pelo Site. H3: A experimentação do Flow aumenta a probabilidade do usuário avaliar positivamente o Site, aumenta a sua predisposição em retornar ao Site ou recomendá-lo a terceiros. A pesquisa empregou um método quase experimental, utilizando como instrumento um site experimental e para os testes e análises um grupo de teste e um grupo de controle. Os resultados obtidos concluem que, primeiro, as características do design e da 1 Os termos em língua inglesa apresentados ao longo deste trabalho encontram-se no glossário. VIII arquitetura do Web Site estimulam a experimentação do Flow. Segundo, o indivíduo que experimenta o fenômeno detém-se por mais tempo no Site. E terceiro, o usuário que experimenta o Flow tende a uma atitude positiva em relação ao Site.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa com métodos cienciométricos a relação entre algumas características de uma amostra de periódicos de Física e os valores de Fator de Impacto (FI) publicados no Journal Citation Reports (JCR), no período de 1993 a 2000. As características estudadas são: sub-área do conhecimento, evolução temporal, tipo e tamanho do periódico, densidade dos artigos e ritmo de obsolescência da literatura. A amostra foi constituída de modo não aleatório, abrangendo todos os títulos classificados pelo Journal Citation Reports (JCR) como sendo de algumas sub-áreas da Física: Física; Física Aplicada; Física Atômica, Molecular e Química; Física da Matéria Condensada; Física de Fluídos e de Plasmas; Física Matemática; Física Nuclear; Física de Partículas e Campos; Ótica; e, Astronomia e Astrofísica. Ao total analisou-se 376 periódicos. Foi elaborado um banco de dados no programa Statistics Packet for Social Science (SPSS) versão 8.0 para a coleta das informações necessárias para a realização do estudo, bem como para o tratamento estatístico das mesmas. As hipóteses de trabalho foram testadas através da Análise de Variância (ANOVA), do Teste χ2 e da Dupla Análise de Variância por Posto de Friedman. As análises empreendidas resultaram na comprovação das seis hipóteses de trabalho à medida que foi verificado que as variáveis: tipo, tamanho, densidade, ritmo de obsolescência, sub-área e tempo influenciam, umas em maior grau, outras com menor intensidade, os valores de FI. Especificamente, destaca-se que o tamanho e o ritmo de obsolescência são as características dos periódicos que se correlacionam mais fortemente com o FI. A densidade apresentou o menor poder explicativo das diferenças existentes entre o impacto das publicações. O aspecto mais relevante verificado está na existência de associação entre sub-área e FI. As cinco sub-áreas que se distinguem das demais são: a Óptica e a Física Aplicada por apresentarem valores médios baixos de FI; e a Física de Partículas e Campos, a Física Atômica, Molecular e Química e a Física Nuclear devido às médias altas. O estudo conclui que o FI deve ser utilizado somente de modo contextualizado e relativizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa a tomada de decisão de companhias de nove setores industriais brasileiros em relação à destinação e aplicação de seus recursos financeiros; verifica também possíveis mudanças nesta tomada de decisão frente à variáveis macroeconômicas. Além disso, constata a relação dos índices de endividamento e rentabilidade destas companhias com a aplicação de seus recursos e com as variáveis macroeconômicas. Para identificar e testar estas tomadas de decisão, são criadas hipóteses, onde correlacionou-se os índices de aplicação dos recursos com alguns indicadores macroeconômicos; também correlacionou-se os índices de rentabilidade e endividamento com as aplicações de recursos e alguns indicadores macroeconômicos. Os resultados para as aplicações de recursos mostram que as companhias estudadas aplicam os mesmos preferencialmente em investimentos no ativo permanente; na correlação das aplicações de recursos com os indicadores macroeconômicos, pode-se destacar uma forte relação nos setores de têxteis e eletroeletrônica. A correlação dos índices de rentabilidade e endividamento com as aplicações de recursos e os indicadores macroeconômicos indicaram poucas ou fracas evidências. Por outro lado, o pagamento de dividendos esteve relacionado com a rentabilidade dos setores de papel e celulose, petroquímica e alimentos; no setor de alimentos, o índice de endividamento esteve correlacionado com a redução da taxa de juros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos vinte anos, diversos fatores vêm moldando o panorama econômico e mercadológico, entre os quais destacam-se a globalização, tecnologia e competição cada vez mais acirrada. Neste cenário, a oferta de serviços ao cliente e as relações comerciais com foco no longo prazo, baseados em benefícios mútuos, figuram como importantes fontes de vantagem competitiva sustentável. Seguindo as tendências de pesquisas contemporâneas, grandes atenções por parte da academia têm-se voltado para o desenvolvimento de modelos teóricos que visam explicar o comportamento das dimensões determinantes para o estabelecimento e manutenção de trocas relacionais. Ao mesmo tempo, os serviços ao cliente vêm sendo estudados como uma atividade de relevância estratégica para potenciais de diferenciação. Este estudo objetiva examinar as correlações existentes entre a oferta de serviços ao cliente e os atributos de Marketing de Relacionamento nas transações entre redes hoteleiras de Porto Alegre e seus clientes organizacionais. A mensuração do Marketing de Relacionamento é feita através de constructos como dependência do cliente, nível de comparação com clientes alternativos, investimentos no relacionamento, troca de informações, confiança e comprometimento. O nível de serviços ao cliente é obtido através de indicadores gerados em entrevistas em profundidade com informantes-chave dos hotéis e alguns de seus clientes organizacionais. Os resultados obtidos através da utilização de modelagem de equações estruturais sugerem bons índices de ajustamento para a estrutura teórica proposta sobre o comportamento dos atributos de Marketing de Relacionamento e serviços ao cliente, apontando para a confirmação inicial das hipóteses de pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na protensão não aderente, a armadura permanece livre para se movimentar ao longo de seu perfil em todas as seções com exceção das de ancoragem. Não há aderência entre concreto e armadura, e a hipótese da compatibilidade de deformações entre o aço e concreto não é aplicável, tornando inviável o desenvolvimento de uma solução analítica. Visando colaborar para a maior compreensão do comportamento à flexão das estruturas com protensão não aderente e para o desenvolvimento de critérios nacionais de projeto, um modelo numérico foi implementado utilizando o elemento finito do tipo híbrido para pórticos planos. Nesta formulação, a equação para as solicitações ao longo do elemento é a função de interpolação, e as forças as variáveis interpoladas. Como esta função resulta das condições de equilíbrio, sem hipóteses arbitrárias, o método é considerado exato para forças e curvaturas. Elementos longos são possíveis, de maneira que um único elemento finito pode ser utilizado para um vão de viga ou pilar, reduzindo o esforço computacional. O caráter exato da formulação contribui para a boa modelagem dos cabos não aderentes, já que a tensão nestas armaduras depende das curvaturas de todas as seções do elemento. O modelo numérico proposto prevê a não linearidade geométrica, carregamentos cíclicos e a construção composta. Relações constitutivas já consolidadas na literatura são empregadas para os materiais. A cadeia de Maxwell é utilizada para representar o comportamento reológico do concreto e do aço de protensão, respeitando as características de envelhecimento de cada material. Inúmeros exemplos são apresentados, permitindo a comparação entre resultados numéricos e experimentais Uma análise paramétrica foi realizada, caracterizando o desempenho do modelo numérico frente a variações nos parâmetros de entrada. Discutem-se, ainda, dois critérios de ruptura para a utilização do modelo numérico no estudo do comportamento à flexão das estruturas com protensão não aderente. Os resultados indicam o bom desempenho do modelo numérico e a sua adequação para a realização de pesquisas sobre o assunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.