317 resultados para Legge fallimentare
Resumo:
At detection threshold, sensitivity improves as the area of a test grating increases, but not when the test is placed on a pedestal and the task becomes contrast discrimination (G. E. Legge, & J. M. Foley, 1980). This study asks whether the abolition of area summation is specific to the situation where mask and test stimuli have the same spatial frequency and orientation ("within-channel" masking) or is more general, also occurring when mask and test stimuli are very different ("cross-channel" masking). Threshold versus contrast masking functions were measured where the test and mask were either both small (SS), both large (LL), or small and large, respectively (SL). For within-channel masking, facilitation and area summation were found at low mask contrasts, but the results for SS and LL converged at intermediate contrasts and above, replicating Legge and Foley (1980). For all three observers, less facilitation was found for SL than for SS. For cross-channel masking, area summation occurred across the entire masking function and results for SS and SL were identical. The results for the entire data set were well fit by an extended version of a contrast masking model (J. M. Foley, 1994) in which the weights of excitatory and suppressive surround terms were free parameters. I conclude that (i) there is no empirical abolition of area summation for cross-channel masking, (ii) within-channel area summation can be abolished empirically without being disabled in the model, (iii) observers are able to restrict the area of spatial integration, but not suppression, (iv) extending a cross-channel mask to the surround has no effect on contrast detection, and (v) there is a formal similarity between area summation and contrast adaptation. © 2004 ARVO.
Resumo:
How are the image statistics of global image contrast computed? We answered this by using a contrast-matching task for checkerboard configurations of ‘battenberg’ micro-patterns where the contrasts and spatial spreads of interdigitated pairs of micro-patterns were adjusted independently. Test stimuli were 20 × 20 arrays with various sized cluster widths, matched to standard patterns of uniform contrast. When one of the test patterns contained a pattern with much higher contrast than the other, that determined global pattern contrast, as in a max() operation. Crucially, however, the full matching functions had a curious intermediate region where low contrast additions for one pattern to intermediate contrasts of the other caused a paradoxical reduction in perceived global contrast. None of the following models predicted this: RMS, energy, linear sum, max, Legge and Foley. However, a gain control model incorporating wide-field integration and suppression of nonlinear contrast responses predicted the results with no free parameters. This model was derived from experiments on summation of contrast at threshold, and masking and summation effects in dipper functions. Those experiments were also inconsistent with the failed models above. Thus, we conclude that our contrast gain control model (Meese & Summers, 2007) describes a fundamental operation in human contrast vision.
Resumo:
The exponential growth of studies on the biological response to ocean acidification over the last few decades has generated a large amount of data. To facilitate data comparison, a data compilation hosted at the data publisher PANGAEA was initiated in 2008 and is updated on a regular basis (doi:10.1594/PANGAEA.149999). By January 2015, a total of 581 data sets (over 4 000 000 data points) from 539 papers had been archived. Here we present the developments of this data compilation five years since its first description by Nisumaa et al. (2010). Most of study sites from which data archived are still in the Northern Hemisphere and the number of archived data from studies from the Southern Hemisphere and polar oceans are still relatively low. Data from 60 studies that investigated the response of a mix of organisms or natural communities were all added after 2010, indicating a welcomed shift from the study of individual organisms to communities and ecosystems. The initial imbalance of considerably more data archived on calcification and primary production than on other processes has improved. There is also a clear tendency towards more data archived from multifactorial studies after 2010. For easier and more effective access to ocean acidification data, the ocean acidification community is strongly encouraged to contribute to the data archiving effort, and help develop standard vocabularies describing the variables and define best practices for archiving ocean acidification data.
Resumo:
Un sistema meccanico è descritto da equazioni differenziali spesso non lineari. Nel maggior numero dei casi tali equazioni non sono risolubili per via analitica e quindi si ricorre all'analisi qualitativa del moto che permette di ricavare informazioni su di esso senza integrare le equazioni. Nell’approccio qualitativo il metodo più utilizzato è la discussione alla Weierstrass che permette di ricavare informazioni sul moto di un punto materiale, che si muove di moto unidimensionale, soggetto a forze conservative, a partire dalla legge di conservazione dell'energia totale. Un altro metodo molto efficace è la costruzione del diagramma di fase, che nel caso di un punto materiale si riduce allo studio delle curve di livello dell’energia totale e permette di rappresentare lo stato del sistema in ogni istante di tempo. Infine altri due metodi analitici che si utilizzano nel caso di oscillazioni non lineari sono il metodo delle approssimazioni successive e delle perturbazioni. In questa tesi viene illustrato ampiamente il primo metodo e si danno alcuni cenni degli altri due, corredandoli con esempi.
Resumo:
Perché uno studente, con quoziente intellettivo nella media, che ha buoni voti in tutte le materie, colleziona insuccessi in matematica? Si può trattare di difficoltà di apprendimento passeggere su un dato argomento, può essere un atteggiamento negativo nei confronti della materia o può trattarsi di discalculia. L'insegnante di matematica deve essere preparato ad individuare le possibili cause dell'insuccesso scolastico degli studenti e ad attuare le strategie didattiche che migliorino il più possibile il suo percorso scolastico. Nel mio elaborato ho riportato una sintesi delle leggi che hanno condotto la scuola italiana ad orientarsi in una prospettiva sempre più inclusiva. In particolare ho riportato la legge 170 del 2010, la prima che definisce i disturbi dell'apprendimento, e la direttiva Bes del 2012, che amplia ancora di più l'area delle problematiche scolastiche. Partendo da una distinzione tra disturbo e difficoltà nell'apprendimento, ho trattato poi in particolare la discalculia, dal punto di vista didattico e riportando le sue definizioni nel corso del tempo. Tra le difficoltà ho citato invece la Matofobia o Math Anxiety. Una paura della matematica ereditata, un'eredità trasmessa però attraverso l'ambiente in cui si cresce e non dai geni. Infine ipotizzando delle lezioni in una classe di seconda superiore in cui sono presenti studenti con discalculia, ho realizzato un'unità didattica dal titolo "Le rette nel piano cartesiano". Per la sua realizzazione ho pensato all'utilizzo del software geogebra e del lavoro in gruppi, per promuovere l'apprendimento attraverso la scoperta e il ragionamento logico, piuttosto che la memorizzazione di formule e la loro mera applicazione. Ho concluso il mio elaborato riportando delle riflessioni su come i docenti si attivano in presenza di uno studente con certificazione di dsa e sul rapporto tra scuola e famiglie, riflessioni tratte da alcune interviste fatte ai referenti per i dsa in diverse scuole della Romagna.
Resumo:
Con la presente tesi viene esaminato un metodo per modificare la frequenza di risonanza di trasduttori piezoelettrici mediante applicazione di carichi elettrici esterni. L'elaborato inizia con la presentazione dei cristalli utilizzati nel lavoro di tesi, concentrandosi sul processo di fabbricazione di un bimorph cantilever impiegato come convertitore elettromeccanico di energia, la cui frequenza di risonanza è modellizzata analiticamente mediante la legge di Newton e il modello di Euler-Bernoulli. Su tale struttura vengono condotte misure mediante shaker elettrodinamico e analizzatore d'impedenza, ai fini di giusticare il modello analitico presentato. Con lo scopo di sincronizzare la frequenza di risonanza del cantilever con la vibrazione dell'ambiente per massimizzare la potenza disponibile, viene proposto un algoritmo MPPT secondo l'approccio Perturba e Osserva (P&O), al quale è fornita in ingresso la tensione efficace di un layer di materiale piezoelettrico. Valutare la sua risposta in tensione, presenta dei limiti applicativi che hanno portato a prendere in considerazione un approccio totalmente diff�erente, basato sullo sfasamento tra la tensione di un trasduttore piezoelettrico e il segnale di accelerazione impiegato come eccitazione. Misure sperimentali sono state condotte con l'obiettivo di validare l'efficacia di quest'ultimo approccio qualora si voglia sincronizzare la frequenza di risonanza dei piezo con segnali di vibrazione reali.
Resumo:
Studio della crescita della scarica elettrica nei gas a bassa pressione con trattazioni teoriche, risultati sperimentali e rimandi ai principali studi sull'argomento. Indice: 1 Introduzione 2 Breakdown nei Gas a Bassa Pressione 2.1 Criterio di Townsend e Legge di Paschen 2.2 Tensione di Breakdown in Campi Uniformi 2.3 Scostamenti dalla Legge di Paschen 2.4 Breakdown in Campi Non Uniformi 2.5 Time Lags per il Breakdown 2.6 Breakdown nel Vuoto 2.7 Scariche Intermittenti post-Breakdown 3 Breakdown nei Contatori Geiger 3.1 Contatori Geiger 3.2 Conteggio Proporzionale 3.3 Conteggio Non-Proporzionale 3.4 Propagazione della Scarica A Sviluppi Successivi
Resumo:
El ensayo examina la cuestión de la aplicación de las reglas y de la capacidad real para tratar casos específicos, llegando a la conclusión de que es la excepción la que confirma la regla, a condición de que sea dialógicamente construida, para que sea interpretable y aplicable por parte de sus numerosos destinatarios en las políticas públicas más complejas y conflictuales, sobre todo a nivel local.
Resumo:
In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.
Resumo:
Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.
Resumo:
Oggetto della tesi sono i sistemi di ricarica dei veicoli elettrici, in particolare la diffusione in Europa delle stazioni di carica, i metodi di carica le caratteristiche della connessione del veicolo alla stazione, e della stazione alla rete pubblica di distribuzione. La tesi illustra lo stato dell’arte dei sistemi di ricarica, le norme relative, sia tecniche che di legge, l’interfaccia di connessione fra veicolo elettrico e stazione di ricarica, ancora oggetto di discussione e non ancora unificato a livello europeo. La tesi affronta anche i sistemi di protezione previsti dalla norma tecnica per la sicurezza delle persone dai contatti elettrici. La tesi contiene inoltre cenni al sistema di comunicazione tra veicolo e stazione di ricarica, e alla crescente attenzione della ricerca internazionale per le tecniche “vehicle to grid”.
Resumo:
Este trabalho consiste num estudo de caso na empresa Alesat cujo objetivo geral foi compreender o modelo de gestão de pessoas adotad por uma empresa norteriograndense à luz do modelo estratégico de gestão de pessoas. O estudo baseouse na literatura de Albuquerque (2002); Ashton, Haffenden e Lambert (2004); Fischer (2002); Legge (1995); Mascarenhas (2008); Tanure, Evans e Pucik (2007), Ulrich (2000) e Vasconcelos (2006), dentre outros, paa apreender como os profissionais que atuam no delineamento de estratégias e operacionalização das ações de recursos humanos concebem o seu posicionamento e eventual alinhamento à estratégia organizacional. O método analisou e descreveu o modelo de gestão de pessoas da empresa campo do estudo. A coleta de dados contou com a realização de entrevistas semi-estruturadas com os 05 gestores de RH que atuam na matriz (Natal/RN). Também foram coletados dados secundários, além de documentos e comunicações internas da empresa que tocam ao RH. Os dados coletados foram analisados à luz da análise de conteúdo de Bardin (1977). Através da análise, foi possível identificar políticas e práticas de RH que perpassam um modelo de gestão de pessoas bem definido e consolidado, com impactos mensuráveis no desempenho organizacional. Percebeu-se, também, a forte disseminação de uma cultura organizacional com foco no posicionamento estratégico e na informalidade e proximidade das relações, que permeiam o modelo de gestão de pessoas. Concluiuse a coerência entre as políticas estratégicas da empresa e as de recursos humanos. A pesquisa apreendeu as interfaces do modelo de gestão estratégica de pessoas da empresa; estas implicam uma alternância entre pensamentos e atitudes vinculados à versão hard, onde o papel das prática de RH é garantir que as pessoas alcancem os objetivos empresariais; e à versão soft, onde o papel do RH é desenvolver o capital intelectual e humano para diversificar os negócios e alcançar resultados sustentáveis e diferenciados. O salto qualitativo atingido pela Ale pode ser atribuído ao fato de possuir um RH situado hierarquicamente na alta cúpula da empresa, em posição de consultoria interna o que oferece perspectivas de atuação que vão muito além das rotinas operacionais desenvolvidas por boa parte das empresas no Brasil
Resumo:
Essendo l’Italia un territorio soggetto a violenti e frequenti sismi, ed avendo un importante patrimonio in muratura, è interessante studiare il rapporto tra i due. La muratura è maggiormente resistente contro forze che agiscono nel suo piano, che generano quindi uno sforzo di taglio. Si andrà dunque a valutare sperimentalmente la resistenza a taglio delle murature. Tale campagna sperimentale sarà svolta su campioni di muratura sotto forma di triplette confezionate con due tipi di malta diversi a tre livelli di precompressione differenti. I risultati così ottenuti saranno infine rielaborati in un grafico, il grafico della legge di Coulomb, che mira a cercare un legame lineare tra le tau e le sigma di precompressione. Un valore aggiunto dello studio sta nel monitoraggio costante della prova, dal quale si nota che la precompressione durante questa varia. Portando dunque a due risultati diversi: il primo è un legame tau-sigma con livelli di sigma normativi e uno con legami di sigma effettivi della rottura. La campagna sperimentale, inoltre, comprende anche la valutazione del modulo elastico per i singoli campioni di laterizio e di malta. La malta sarà provata anche per la resistenza a flessione e compressione.