242 resultados para Favorite (Corvette)
Resumo:
Although they are two distinct fields of social practices, football and carnival are components of national identity. According the academic research tradition, these two phenomenons are studied separately. However, by characteristics of the city of Sao Paulo, these two social practices are performed by the same social actors: the fans of teams in the city, and join organizations of supporters - the cheerleaders - created from these same institutions, schools samba and now also compete in the Carnival of Sao Paulo, as is the case of Torcida Organizada Gaviões da Fiel, used as an object of study for this work. The approach of these cultural events helped define the question that guided the research: the associations of football fans, when observed by an administrative perspective, can be characterized as diverse organizations? From this question, one tries to describe the way a fan club is organized through the division of tasks that takes, as well as explain the type of organizational structure appropriate to accomplish the two goals it is intended for: cheer for the favorite team and be a part of the carnival parade
Resumo:
This research aims at examining the relationship between the performance of elementary school students Cycle I in problem solving and attitudes toward mathematics. For this, a research was conducted at a state school in the city of Bauru which was selected for convenience. Participants were randomly selected consisting of 75 students, of whom 21 were third years and 57 were of three classes of fifth year. The instruments used for data collection were: a informative questionnaire to characterize the students in age, grade, favorite subjects and the least liked, among others, an attitude scale, Likert type, to examine the attitudes toward mathematics; a interviews with 11 selected students according to scores on the attitudes and mathematical problems to be solved through the method of thinking aloud. The results showed that the major difficulties encountered by students in solving problems were: to understand the problems, formalizing the reasoning, recognize in the problem the algorithms needed for its resolution, make calculations with decimal numbers, do combinatorics, using the sum of equal portions instead of multiplying, self-confidence and autonomy in what he was doing, and others; participants with positive attitudes towards mathematics showed greater confidence to solve problems as well as a greater understanding on what was required by them, but were not detected significant relation between the attitudes and performance, since it was unfavorable
Resumo:
Pós-graduação em Cirurgia Veterinária - FCAV
Resumo:
Objetivo: Examinar o padrão de consumo do tabaco e conhecimentos sobre as doenças relacionadas ao tabaco, assim como identificar os tipos mais populares de mídias entre gestantes para aprimorar estratégias para a prevenção e a cessação do tabagismo entre essas mulheres. Métodos: Estudo transversal com 61 gestantes atendidas em um hospital universitário e em unidades básicas de saúde em Botucatu, SP. A Escala Hospitalar de Ansiedade e Depressão foi aplicada a todas as participantes. Para aquelas com história de tabagismo, também foi aplicado o Teste de Fagerström para Dependência de Nicotina, e foi avaliado o grau de motivação para cessação tabágica nas fumantes. Resultados: Das 61 gestantes avaliadas, 25 (40,9%) eram fumantes (média de idade, 26,4 ± 7,4 anos), 24 (39,3%) eram ex-fumantes (média de idade, 26,4 ± 8,3 anos), e 12 (19,8%) nunca fumaram (média de idade, 25,1 ± 7,2 anos). A exposição passiva foi relatada por 39 gestantes (63,9%). Das 49 fumantes/ex-fumantes, 13 (29,6%) conheciam as consequências pulmonares do tabagismo; somente 2 (4,9%) conheciam os riscos cardiovasculares; 23 (46,9%) acreditavam que fumar não causa nenhum problema para o feto ou o recém-nascido; 21 (42,9%) consumiram álcool durante a gestação; 18 (36,7%) relataram aumento no consumo de cigarros quando bebiam; 25 (51,0%) experimentaram cigarros com sabores; e 12 (24,5%) fumaram narguilé. Entre as 61 gestantes avaliadas, a televisão foi o tipo de mídia mais disponível e favorita (85,2%), assim como a mais preferida (49,2%). Conclusões: Entre gestantes, o fumo ativo, o fumo passivo e o uso de formas alternativas de consumo de tabaco parecem ser altamente prevalentes, e tais mulheres parecem possuir poucos conhecimentos sobre as consequências do uso de tabaco. Programas educacionais que incluam informações sobre as consequências de todas as formas de uso de tabaco, utilizando formatos novos e efetivos para esta população específica, devem ser desenvolvidos para promover a prevenção/cessação do tabagismo entre gestantes. Amostras adicionais para explorar diferenças culturais e regionais são necessárias.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Wavelength division multiplexing (WDM) offers a solution to the problem of exploiting the large bandwidth on optical links; it is the current favorite multiplexing technology for optical communication networks. Due to the high cost of an optical amplifier, it is desirable to strategically place the amplifiers throughout the network in a way that guarantees that all the signals are adequately amplified while minimizing the total number amplifiers being used. Previous studies all consider a star-based network. This paper demonstrates an original approach for solving the problem in switch-based WDM optical network assuming the traffic matrix is always the permutation of the nodes. First we formulate the problem by choosing typical permutations which can maximize traffic load on individual links; then a GA (Genetic Algorithm) is used to search for feasible amplifier placements. Finally, by setting up all the lightpaths without violating the power constaints we confirm the feasibility of the solution.
Resumo:
This action research study of approximately 90 high school algebra students investigates how frequent quizzing benefits them during the course of a semester. The intent of the research was to see how well students kept up with the material and if frequent quizzing helped them on the chapter tests. It was also designed to help me gain a better understanding of what students know and how I need to adjust daily routines so that all students stay caught up. I discovered that although frequent quizzes are not the students’ favorite activity to take part in, they learn to accept the quizzes and benefit greatly because of the amount of information students learn from them. Holding students accountable with frequent quizzes forces students to stay caught up and pushes them to excel as many found the tests to be much easier because of the practice they received. My research revealed many advantages to holding students accountable through frequent quizzes and although it can be somewhat time consuming, it is definitely a practice that will be continued in my classroom for years to come.
Resumo:
There are two aspects of Seth Giertz's excellent chapter that I want to talk about. One is slightly technical; I want to try to provide some explanation for why estimating elasticity of taxable income (ETI) is so difficult. I think this difficulty is unappreciated by nonspecialists, who are quick to latch onto a favorite estimate without understanding the weaknesses in the estimation. The other aspect is a bit more philosophical and addresses the different functions of the partial equilibrium analysis done here and the general equilibrium work done a few years back in the macro group at the Congressional Budget Office (CBO). Perhaps surprisingly, I strongly endorse the partial equilibrium approach taken here for the comparison of tax reforms.
Resumo:
[ES] El objetivo que se pretendía alcanzar con la realización de este proyecto era desarrollar una aplicación web 2.0 capaz de gestionar rutas independientemente de su tipología u otro tipo de características. El usuario de la aplicación construida tras analizar este proyecto puede crear rutas y modificarlas. Para su visualización se ha optado por un entorno 3D que muestra el globo terráqueo de manera realista: Google Earth en su versión como complemento para navegadores. La variedad de rutas creadas puede ser muy amplia, como por ejemplo: las etapas de la Vuelta Ciclista a España, la travesía de una competición náutica, el recorrido que siguió Colón en su primer viaje a América o los caminos reales de Canarias. Las rutas se crean desplazando el ratón y haciendo clic sobre la superficie del globo terráqueo. La aplicación muestra una línea que pasa por los puntos indicados con la representación de la ruta. Para las rutas creadas el usuario puede añadir una serie de elementos multimedia que permitan obtener un mayor conocimiento de dichas rutas. La aplicación permite añadir fotos, vídeos web, documentos y elementos 3D. Cuando el usuario seleccione mostrar una ruta creada previamente a la que le ha añadido alguno de los elementos indicados previamente, éste se visualizará en el navegador. Además de la posibilidad de gestionar rutas, el usuario también puede gestionar sitios de su interés de manera sencilla. El usuario puede incorporar localizaciones de diversa índole a su biblioteca de elementos para disponer de una mejor accesibilidad de sus lugares predilectos. Los sitios de interés creados aparecen en el globo como un icono junto con su nombre.
Resumo:
Subduction zones are the favorite places to generate tsunamigenic earthquakes, where friction between oceanic and continental plates causes the occurrence of a strong seismicity. The topics and the methodologies discussed in this thesis are focussed to the understanding of the rupture process of the seismic sources of great earthquakes that generate tsunamis. The tsunamigenesis is controlled by several kinematical characteristic of the parent earthquake, as the focal mechanism, the depth of the rupture, the slip distribution along the fault area and by the mechanical properties of the source zone. Each of these factors plays a fundamental role in the tsunami generation. Therefore, inferring the source parameters of tsunamigenic earthquakes is crucial to understand the generation of the consequent tsunami and so to mitigate the risk along the coasts. The typical way to proceed when we want to gather information regarding the source process is to have recourse to the inversion of geophysical data that are available. Tsunami data, moreover, are useful to constrain the portion of the fault area that extends offshore, generally close to the trench that, on the contrary, other kinds of data are not able to constrain. In this thesis I have discussed the rupture process of some recent tsunamigenic events, as inferred by means of an inverse method. I have presented the 2003 Tokachi-Oki (Japan) earthquake (Mw 8.1). In this study the slip distribution on the fault has been inferred by inverting tsunami waveform, GPS, and bottom-pressure data. The joint inversion of tsunami and geodetic data has revealed a much better constrain for the slip distribution on the fault rather than the separate inversions of single datasets. Then we have studied the earthquake occurred on 2007 in southern Sumatra (Mw 8.4). By inverting several tsunami waveforms, both in the near and in the far field, we have determined the slip distribution and the mean rupture velocity along the causative fault. Since the largest patch of slip was concentrated on the deepest part of the fault, this is the likely reason for the small tsunami waves that followed the earthquake, pointing out how much the depth of the rupture plays a crucial role in controlling the tsunamigenesis. Finally, we have presented a new rupture model for the great 2004 Sumatra earthquake (Mw 9.2). We have performed the joint inversion of tsunami waveform, GPS and satellite altimetry data, to infer the slip distribution, the slip direction, and the rupture velocity on the fault. Furthermore, in this work we have presented a novel method to estimate, in a self-consistent way, the average rigidity of the source zone. The estimation of the source zone rigidity is important since it may play a significant role in the tsunami generation and, particularly for slow earthquakes, a low rigidity value is sometimes necessary to explain how a relatively low seismic moment earthquake may generate significant tsunamis; this latter point may be relevant for explaining the mechanics of the tsunami earthquakes, one of the open issues in present day seismology. The investigation of these tsunamigenic earthquakes has underlined the importance to use a joint inversion of different geophysical data to determine the rupture characteristics. The results shown here have important implications for the implementation of new tsunami warning systems – particularly in the near-field – the improvement of the current ones, and furthermore for the planning of the inundation maps for tsunami-hazard assessment along the coastal area.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
La presente tesi ha come scopo quello di individuare alcune problematiche relative all’esercizio e alla limitazione del diritto alla libertà di espressione nel contesto delle attività globali di sorveglianza e controllo delle tecnologie dell’informazione e della comunicazione. Tali attività, poste in essere da parte degli Stati e da parte degli operatori privati, sono favorite dal nebuloso rapporto tra norme di fonte pubblica, privata e informatica, e sono invece osteggiate dal ricorso, collettivo e individuale, alle possibilità offerte dalle tecnologie stesse per la conduzione di attività in anonimato e segretezza. La sorveglianza globale nel contesto delle privatizzazioni si serve del codice e dell’autonomia privata, così come la resistenza digitale ricorre alle competenze informatiche e agli spazi di autonomia d’azione dell’individuo. In questo contesto, la garanzia dell’esistenza e dell’esercizio dei diritti fondamentali dell’individuo, tra tutti il diritto alla libertà di espressione e il diritto alla tutela della riservatezza, passa per l’adozione di tecniche e pratiche di autotutela attraverso l’utilizzo di sistemi di cifratura e comunicazioni anonime. L’individuo, in questo conflitto tecnico e sociale, si trova a dover difendere l’esercizio dei propri diritti e finanche l’adempimento ai propri doveri, quando attinenti a particolari figure professionali o sociali, quali avvocati, operatori di giustizia, giornalisti, o anche semplicemente genitori. In conclusione dell’elaborato si propongono alcune riflessioni sulla formazione della cittadinanza e del mondo professionale, da parte dei giuristi delle nuove tecnologie, all’uso cosciente, consapevole e responsabile delle nuove tecnologie dell’informazione, con lo stimolo ad orientare altresì le proprie attività alla tutela e alla promozione dei diritti umani fondamentali, democratici, costituzionali, civili e sociali.
Resumo:
Passive acoustic data have been collected using HARPs (High-frequency Acoustic Recording Packages) and were used to assess (1) the seasonality of blue whale D calls in the Southern California Bight, (2) their interannual abundance during 2007-2012 and (3) their diel variation. This goal has been achieved running the GPL (Generalized Power-Law) automated detector. (1) Blue whale D calls were detected in the Southern California Bight from May through November with a peak in July, even though few detections were from December to April as well. A key predictor for blue whale distribution and movement in the California Current region has been identified with zooplankton aggregations, paying a particular attention to those euphausiid species, such as E. pacifica and T. spinifera, which are blue whale favorite krill. The Southern California Bight experiences seasonal upwelling, resulting in an increase of productivity and prey availability. The summer and early fall have been marked as the most favorable periods. This supports the presence of blue whales in the area at that time, supposing these marine mammals exploit the region as a feeding ground. (2) As to the interannual abundance during 2007-2012, I found a large variability. I observed a great increase of vocalizations in 2007 and 2010, whereas a decrease was shown in the other years, which is well marked in 2009. It is my belief that these fluctuations in abundance of D calls detections through the deployed period are due to the alternation of El Nino and La Nina events, which occurred in those years. (3) The assessment of the daily timing of D calls production shows that D calls are more abundant during the day than during the night with a peak at 12:00 and 13:00. Assuming that D calling is associated with feeding, the daily pattern of D calls may be linked to the prey availability. E. pacifica and T. spinifera are among those species of krill which undertake daily vertical migrations, remaining at depth during the day and slowly coming up towards the surface at night. Because of some anatomical arrangements, these euphausiids are very sensitive to the light. Given that we believe D calls have a social function, I hypothesize that blue whales may recognize the hours at the highest solar incidence as the best moment of the day in terms of prey availability, exploiting this time window to advert their conspecifics.
Resumo:
How do prevailing narratives about Native Americans, particularly in the medium of film, conspire to promote the perspective of the dominant culture? What makes the appropriation of Indigenous images so metaphorically popular? In the past hundred years, little has changed in the forms of representation favored by Hollywood. The introductory chapter elucidates the problem and outlines the scope of this study. As each subsequent chapter makes clear, the problem is as relevant today as it has been throughout the entire course of filmic history. Chapter Two analyzes representational trends and defines each decade according to its favorite stereotype. The binary of the bloodthirsty savage is just as prevalent as it was during the 1920s and 30s. The same holds true for the drunken scapegoat and the exotic maiden, which made their cinematic debuts in the 1940s and 50s. But Hollywood has added new types as well. The visionary peacemaker and environmental activist have also made an appearance within the last forty years. What matters most is not the realism of these images, but rather the purposes to which they can be put toward validating whatever concerns the majority filmmakers wish to promote. Whether naïvely or not, such representations continue to evacuate Indigenous agency to the advantage of the majority. A brief historical overview confirms this legacy. Various disciplines have sought to interrogate this problem. Chapter three investigates the field of postcolonial studies, which makes inquiry into the various ways these narratives are produced, marketed, and consumed. It also raises the key questions of for whom, and by whom, these narratives are constructed. Additional consideration is given to their value as commodities in the mass marketplace. Typically the products of a boutique-multiculturalism, their storylines are apt to promote the prevailing point of view. Critical theory provides a foundational framework for chapter four. What is the blockbuster formula and how do the instruments of capital promote it? Concepts such as culture industry and repressive tolerance examine both the function and form of the master narrative, as well as its use to control the avenues of dissent. Moreover, the public sphere and its diminishment highlight the challenges inherent in the widespread promotion of an alternative set of narratives. Nonetheless, challenges to prevailing narratives do exist, particularly in the form of Trickster narratives. Often subject to persistent misrecognition, the Trickster demonstrates a potent form of agency that undeniably dismantles the hegemony of Western cinema. The final chapter examines some of the Trickster's more subtle and obscure productions. Usually subjugated to the realm of the mystical, rather than the mythical, these misinterpreted forms have the power to speak in circles around a majority audience. Intended for an Other audience, they are coded in a language that delivers a type of direction through indirection, promoting a poignant agency all their own.