936 resultados para Diagrama de Goodman
Resumo:
Este artigo visa a realizar um debate teórico por meio das análises de Michel Foucault e de Robert Castel, entre outros, a respeito dos mecanismos de segurança e das estratégias de governamentalidade neoliberal, na sociedade contemporânea. Os cursos Em defesa da sociedade, Segurança, território e população e Nascimento da Biopolítica, de Foucault, inauguraram uma discussão relevante a respeito dos racismos de Estado e de sociedade, de seus paradoxos, nas democracias, e de seus efeitos a partir da emergência do neoliberalismo norte-americano e alemão, após a II Guerra Mundial, que foram difundidos em outros países, sobretudo na década de noventa do século XX, com especificidades em cada país, mas com pontos de conexão que nos permitem traçar um diagrama da sociedade de segurança e de como ela opera por táticas de governo das condutas, também denominadas governamentalidades, por Foucault.
Resumo:
Ensaio argumentativo sobre a concepção de escrita fora da perspectiva etnocêntrica que considera o sistema verbal alfabético ocidental como pólo da formulação conceitual e teórica. A hipótese fundamental em estudo encaminha a abordagem sistêmica a partir da qual a escrita é sistema ambiental de constituição semiótico-cognitiva fundado em possibilidades combinatórias e interpretativas de leitura. Examina-se, então, a perspectiva semiocêntrica fundada pela temporalidade da cultura e não apenas pela dominante espacial.
Resumo:
We report an improved measurement of (nu) over bar (mu) disappearance over a distance of 735 km using the MINOS detectors and the Fermilab Main Injector neutrino beam in a (nu) over bar (mu)-enhanced configuration. From a total exposure of 2.95 x 10(20) protons on target, of which 42% have not been previously analyzed, we make the most precise measurement of Delta(m) over bar (2) = [2.62(-0.28)(+0.31)(stat) +/- 0.09(syst)] x 10(-3) eV(2) and constrain the (nu) over bar (mu) mixing angle sin(2)(2 (theta) over bar) > 0.75 (90% C.L.). These values are in agreement with Delta m(2) and sin(2)(2 theta) measured for nu(mu), removing the tension reported in [P. Adamson et al. (MINOS), Phys. Rev. Lett. 107, 021801 (2011).].
Resumo:
Background The effect of intensified platelet inhibition for patients with unstable angina or myocardial infarction without ST-segment elevation who do not undergo revascularization has not been delineated. Methods In this double-blind, randomized trial, in a primary analysis involving 7243 patients under the age of 75 years receiving aspirin, we evaluated up to 30 months of treatment with prasugrel (10 mg daily) versus clopidogrel (75 mg daily). In a secondary analysis involving 2083 patients 75 years of age or older, we evaluated 5 mg of prasugrel versus 75 mg of clopidogrel. Results At a median follow-up of 17 months, the primary end point of death from cardiovascular causes, myocardial infarction, or stroke among patients under the age of 75 years occurred in 13.9% of the prasugrel group and 16.0% of the clopidogrel group (hazard ratio in the prasugrel group, 0.91; 95% confidence interval [CI], 0.79 to 1.05; P = 0.21). Similar results were observed in the overall population. The prespecified analysis of multiple recurrent ischemic events (all components of the primary end point) suggested a lower risk for prasugrel among patients under the age of 75 years (hazard ratio, 0.85; 95% CI, 0.72 to 1.00; P = 0.04). Rates of severe and intracranial bleeding were similar in the two groups in all age groups. There was no significant between-group difference in the frequency of nonhemorrhagic serious adverse events, except for a higher frequency of heart failure in the clopidogrel group. Conclusions Among patients with unstable angina or myocardial infarction without ST- segment elevation, prasugrel did not significantly reduce the frequency of the primary end point, as compared with clopidogrel, and similar risks of bleeding were observed. (Funded by Eli Lilly and Daiichi Sankyo; TRILOGY ACS ClinicalTrials.gov number, NCT00699998.)
Resumo:
To examine whether the widely used Strengths and Difficulties Questionnaire (SDQ) can validly be used to compare the prevalence of child mental health problems cross nationally. We used data on 29,225 5- to 16-year olds in eight population-based studies from seven countries: Bangladesh, Brazil, Britain, India, Norway, Russia and Yemen. Parents completed the SDQ in all eight studies, teachers in seven studies and youth in five studies. We used these SDQ data to calculate three different sorts of "caseness indicators" based on (1) SDQ symptoms, (2) SDQ symptoms plus impact and (3) an overall respondent judgement of 'definite' or 'severe' difficulties. Respondents also completed structured diagnostic interviews including extensive open-ended questions (the Development and Well-Being Assessment, DAWBA). Diagnostic ratings were all carried out or supervised by the DAWBA's creator, working in conjunction with experienced local professionals. As judged by the DAWBA, the prevalence of any mental disorder ranged from 2.2% in India to 17.1% in Russia. The nine SDQ caseness indicators (three indicators times three informants) explained 8-56% of the cross-national variation in disorder prevalence. This was insufficient to make meaningful prevalence estimates since populations with a similar measured prevalence of disorder on the DAWBA showed large variations across the various SDQ caseness indicators. The relationship between SDQ caseness indicators and disorder rates varies substantially between populations: cross-national differences in SDQ indicators do not necessarily reflect comparable differences in disorder rates. More generally, considerable caution is required when interpreting cross-cultural comparisons of mental health, particularly when these rely on brief questionnaires.
Resumo:
The objective of this work was to evaluate the catabolic gene diversity for the bacterial degradation of aromatic hydrocarbons in anthropogenic dark earth of Amazonia (ADE) and their biochar (BC). Functional diversity analyses in ADE soils can provide information on how adaptive microorganisms may influence the fertility of soils and what is their involvement in biogeochemical cycles. For this, clone libraries containing the gene encoding for the alpha subunit of aromatic ring-hydroxylating dioxygenases (alpha-A RH D bacterial gene) were constructed, totaling 800 clones. These libraries were prepared from samples of an ADE soil under two different land uses, located at the Caldeirao Experimental Station secondary forest (SF) and agriculture (AG)-, and the biochar (SF_BC and AG_BC, respectively). Heterogeneity estimates indicated greater diversity in BC libraries; and Venn diagrams showed more unique operational protein clusters (OPC) in the SF_BC library than the ADE soil, which indicates that specific metabolic processes may occur in biochar. Phylogenetic analysis showed unidentified dioxygenases in ADE soils. Libraries containing functional gene encoding for the alpha subunit of the aromatic ring-hydroxylating dioxygenases (ARHD) gene from biochar show higher diversity indices than those of ADE under secondary forest and agriculture.
Resumo:
Background-The clinical significance of the interaction between clopidogrel and proton pump inhibitors (PPIs) remains unclear. Methods and Results-We examined the relationship between PPI use and 1-year cardiovascular events (cardiovascular death, myocardial infarction, or stroke) in patients with acute coronary syndrome randomized to clopidogrel or ticagrelor in a prespecified, nonrandomized subgroup analysis of the Platelet Inhibition and Patient Outcomes (PLATO) trial. The primary end point rates were higher for individuals on a PPI (n = 6539) compared with those not on a PPI (n = 12 060) at randomization in both the clopidogrel (13.0% versus 10.9%; adjusted hazard ratio [HR], 1.20; 95% confidence interval [CI], 1.04 -1.38) and ticagrelor (11.0% versus 9.2%; HR, 1.24; 95% CI, 1.07-1.45) groups. Patients on non-PPI gastrointestinal drugs had similar primary end point rates compared with those on a PPI (PPI versus non-PPI gastrointestinal treatment: clopidogrel, HR, 0.98; 95% CI, 0.79-1.23; ticagrelor, HR, 0.89; 95% CI, 0.73-1.10). In contrast, patients on no gastric therapy had a significantly lower primary end point rate (PPI versus no gastrointestinal treatment: clopidogrel, HR, 1.29; 95% CI, 1.12-1.49; ticagrelor, HR, 1.30; 95% CI, 1.14-1.49). Conclusions-The use of a PPI was independently associated with a higher rate of cardiovascular events in patients with acute coronary syndrome receiving clopidogrel. However, a similar association was observed between cardiovascular events and PPI use during ticagrelor treatment and with other non-PPI gastrointestinal treatment. Therefore, in the PLATO trial, the association between PPI use and adverse events may be due to confounding, with PPI use more of a marker for, than a cause of, higher rates of cardiovascular events.
Resumo:
We have searched for sidereal variations in the rate of antineutrino interactions in the MINOS Near Detector. Using antineutrinos produced by the NuMI beam, we find no statistically significant sidereal modulation in the rate. When this result is placed in the context of the Standard Model Extension theory we are able to place upper limits on the coefficients defining the theory. These limits are used in combination with the results from an earlier analysis of MINOS neutrino data to further constrain the coefficients.
Resumo:
This paper reports measurements of atmospheric neutrino and antineutrino interactions in the MINOS Far Detector, based on 2553 live-days (37.9 kton-years) of data. A total of 2072 candidate events are observed. These are separated into 905 contained-vertex muons and 466 neutrino-induced rock-muons, both produced by charged-current nu(mu) and (nu) over bar (mu) interactions, and 701 contained-vertex showers, composed mainly of charged-current nu(e) and (nu) over bar (e) interactions and neutral-current interactions. The curvature of muon tracks in the magnetic field of the MINOS Far Detector is used to select separate samples of nu(mu) and (nu) over bar (mu) events. The observed ratio of (nu) over bar (mu) to v(mu) events is compared with the Monte Carlo ( MC) simulation, giving a double ratio of R((nu) over bar/nu)data/R(nu) over bar/nu MC = 1.03 +/- 0.08(stat) +/- 0.08(syst). The v(mu) and (nu) over bar (mu) data are separated into bins of L/E resolution, based on the reconstructed energy and direction of each event, and a maximum likelihood fit to the observed L/E distributions is used to determine the atmospheric neutrino oscillation parameters. This fit returns 90% confidence limits of |Delta m(2)| = (1.9 +/- 0.4) x 10(-3) eV(2) and sin(2)2 theta > 0.86. The fit is extended to incorporate separate nu(mu) and (nu) over bar mu oscillation parameters, returning 90% confidence limits of |Delta m(2)| - |Delta(m) over bar (2)| = 0.6(-0.8)(+2.4) x 10(-3) eV(2) on the difference between the squared-mass splittings for neutrinos and antineutrinos.
Resumo:
JUSTIFICATIVA E OBJETIVOS: Estudo exploratório-descritivo, transversal, com objetivo de determinar a prevalência, caracterização, localização, mensuração e discussão de medidas farmacológicas analgésicas em dor aguda em cinco unidades de internação de um hospital universitário. MÉTODO: Participaram 856 sujeitos, dos quais 272 com dor no momento. As informações relacionadas à dor foram obtidas através de entrevista estruturada junto ao leito. Usou-se a escala numérica de dor e diagrama corporal. RESULTADOS: A analgesia foi verificada no prontuário. A prevalência geral de dor foi de 31,8%, sendo intensa em 44,2% e a média de 6,6 na escala numérica de dor. O motivo principal foi traumatismo, o local mais frequente, o abdômen. O analgésico mais usado foi a dipirona em 76,1%, com/sem associação. Opioide forte foi prescrito em 4,4%. Para 27,5% não houve melhoria. CONCLUSÃO: Conclui-se que a dor é de alta prevalência, pouco avaliada, subtratada, com uso incorreto de analgésicos.
Resumo:
OBJETIVO: Avaliar a qualidade de vida relacionada à saúde de cortadores de cana-de-açúcar. MÉTODOS: Estudo longitudinal em uma usina sucroalcooleira no Oeste do estado de São Paulo de abril (final da entressafra) a outubro (final da safra) de 2010. Foram avaliados 44 cortadores de cana-de-açúcar tabagistas e não tabagistas em três períodos: ao final da entressafra, no fim do terceiro mês de safra e no final da safra. A qualidade de vida relacionada à saúde foi avaliada pelo questionário Medical Outcomes Study 36-Item Short-Form Health Survey (SF-36). Foram realizados análise de variância para medidas repetidas e teste de Friedman para comparar a qualidade de vida entre os períodos. Utilizou-se o teste de Goodman para identificar a frequência dos trabalhadores cujo escore aumentou nos períodos de safra em comparação com a entressafra (respondedores positivos), considerando-se as variáveis qualitativas dos domínios do SF-36. RESULTADOS: Ao final da entressafra, 23% dos trabalhadores desistiram do trabalho; 27% eram tabagistas. Houve decréscimo significativo no domínio vitalidade no final da safra em comparação com a entressafra. Os desistentes apresentaram maior escore no domínio aspecto social em relação ao grupo que permaneceu no trabalho. Não houve diferença na qualidade de vida relacionada à saúde entre tabagistas e não tabagistas. No entanto, observou-se maior percentual de respondedores positivos entre não tabagistas nos domínios aspecto físico, social e emocional nos três meses de safra e nos domínios estado geral de saúde e aspecto social nos seis meses de safra, quando comparados aos tabagistas. CONCLUSÕES: A qualidade de vida relacionada à saúde em cortadores de cana-de-açúcar mostrou-se diminuída após o período de safra no domínio vitalidade. Os trabalhadores que permaneceram na safra são os que apresentaram piores aspectos sociais, o que mostra a necessidade de promoção de políticas assistencialistas de saúde a essa população específica, principalmente durante a safra canavieira.
Resumo:
O objetivo deste trabalho é compreender a etapa de ajuste no contexto da gestão do portfólio de projetos, destacando sua relação com os processos de categorização e balanceamento. A pesquisa realizada tem caráter qualitativo, sendo a abordagem adotada o estudo de caso longitudinal. A pesquisa foi desenvolvida em uma empresa do setor químico brasileiro. As evidências, de várias fontes, foram coletadas através de entrevistas, documentos e dados dos sistemas corporativos. Para a compreensão do portfólio de projetos da empresa foram coletados e analisados dados de mil projetos realizados entre 2001 e 2005. Os resultados indicam que maior atenção é dada à etapa de seleção, negligenciando a etapa de ajuste. A adoção de ferramentas de balanceamento permitiu evidenciar lacunas e fontes de desbalanceamento no portfólio de projetos, promovendo o debate entre os tomadores de decisão no que concerne ao viés introduzido pelos critérios adotados na etapa de seleção e levantando a necessidade de introdução de uma sistemática de ajuste e balanceamento. Observou-se que sem uma adequada categorização dos projetos da empresa seria difícil promover a análise de balanceamento.
Resumo:
Os fatores hidrodinâmicos que controlam a sedimentação na Lagoa Itapeva foram avaliados através do mapa de distribuição granulométrica gerado a partir do diagrama de Pejrup e da análise da ação hidrodinâmica induzida pelas ondas no corpo lacustre. Além disso, através do método geocronológico do 210Pb estimou-se a taxa de sedimentação no interior lacustre. Os padrões texturais em amostras sedimentares de fundo indicam a presença de significativa energia hidrodinâmica atuante no processo de sedimentação, com predomínio da fração arenosa nas margens submersas e granodecrescência para tamanhos de silte grosso a fino em direção ao centro. A ação hidrodinâmica induzida pelas ondas é fator condicionante na distribuição dos sedimentos, pois os ventos mais frequentes com média de intensidade de 16 m.s-1, atuando em uma pista de até 31 km, geram ondas com altura significativa de 0,60 m, período de 3,3 s e velocidade orbital de 0,34 m.s-1 junto ao fundo. Como este valor excede o limite para movimentação de sedimentos tamanho areia, essa classe granulométrica predomina juntamente com o silte apresentando baixa concentração no tamanho argila. A taxa de sedimentação foi estimada através da obtenção de três testemunhos de sondagem sendo aplicado o método geocronológico 210Pb a qual indicou taxas de sedimentação na ordem de 2,9 mm.a-1, 2,4 mm.a-1 e 3,2 mm.a-1 no sentido norte sul. A contribuição da drenagem do rio Três Forquilhas foi o principal condicionante na diferença entre estes setores aumentando a taxa de sedimentação perto da desembocadura. A análise granulométrica ao longo dos testemunhos indica a existência de significativa energia hidrodinâmica no processo de sedimentação na área central do corpo lacustre. A fração silte é a classe dominante, com variação de diâmetro entre médio a grosso em todas as amostras, sendo mais comum a ocorrência da fração areia em relação à argila, que apresentou baixa concentração, não ultrapassando 9%.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
Il presente contributo prende le mosse dalla consapevolezza che i modelli lineari tradizionali sulle carriere (Super, 1980) hanno lasciato il passo a concettualizzazioni più complesse e non lineari (Cohen, Duberley & Mallon, 2004; Pryor & Bright, 2007; Richardson, 2002), argomento tra l’altro approfondito operando una disanima delle principali transizioni di carriera e dei fenomeni psicosociali ad esse correlate (Schlossberg, Waters & Goodman, 1995). Vengono affrontati temi attuali quali quelli della Globalizzazione riflessiva (Beck, 1999), della complessità e delle Flessibilità (Sennett, 1998) e se ne mette in luce le interrelazioni con il fenomeno delle carriere, ed in particolare delle dinamiche che ne hanno modificato progressivamente e radicalmente la natura nel corso degli ultimi trent’anni (Hall, 1976, 1996). È stato approfondito il tema dei nuovi percorsi di carriera, con particolare attenzione ai costrutti teorici della Protean Career (Carriera Versatile) e della Boundaryless Career (Carriera senza confini). Sono stati condotti due studi, mediante il metodo dell’inchiesta, proponendo dei questionari autosomministrabili a due gruppi di lavoratori dipendenti. La selezione degli strumenti da inserire nel protocollo, e quindi delle ipotesi da verificare è stata operata in funzione delle caratteristiche intrinseche dei due gruppi coinvolti, cercando comunque di valorizzare sempre il ruolo dei nuovi orientamenti di carriera all’interno del disegno di ricerca. Lo studio 1 è stato condotto su un gruppo di 540 lavoratori dipendenti provenienti da Sardegna e Sicilia. Facendo riferimento agli studi tradizionali sull’insicurezza lavorativa (Sverke & Hellgren, 2002), si è cercato di valutare l’eventuale effetto moderante dei nuovi orientamenti di carriera (Briscoe, Hall & Frautschy De Muth, 2006) circa gli effetti dell’insicurezza su benessere psicofisico (Goldberg, 1972) e coinvolgimento lavorativo (Schaufeli, Bakker & Salanova, 2006; Scaufeli, Salanova, Gonzalez-Romá & Bakker, 2002). I risultati hanno mostrato alcuni effetti parziali, ma d’altro canto è emerso che i medesimi orientamenti di carriera risultano significativamente e direttamente associati a variabili quali l’Autoefficacia, la Proattività, il benessere e il Coinvolgimento. Lo studio 2, riguardante un gruppo di 79 neolaureati di Palermo e provincia al primo inserimento lavorativo, è stato condotto nell’arco di 8 mesi con tre rilevazioni dati. In questo caso si è cercato di evidenziare eventuali effetti causali longitudinali degli orientamenti di carriera sulle variabili dipendenti già incluse nello studio 2. Le ipotesi espresse hanno trovato soltanto parziale conferma nei risultati.