378 resultados para validité
Resumo:
Les adolescents qui décrochent de l’école secondaire arrivent difficilement à s’intégrer dans une économie axée sur le savoir et éprouvent plusieurs problèmes d’ajustement à l’adolescence et à l’âge adulte. Pour prévenir le décrochage scolaire, une étape cruciale consiste à dépister efficacement les élèves les plus à risque. Deux formes de dépistage axées sur des données peuvent être utilisées en milieu scolaire: une forme utilisant des informations auto-rapportées par les élèves à partir de questionnaires, et une autre fondée sur des informations administratives consignées au dossier des élèves. Toutefois, à notre connaissance, l’efficacité de ces différentes modalités n’a jamais été comparée directement. De plus, il est possible que l’efficacité relative de ces outils de dépistage soit différente selon le sexe de l’élève. Cette étude vise à comparer différents outils de dépistage pour prédire le décrochage scolaire, en tenant compte de l’effet modérateur du sexe. Les outils utilisés seront a) un questionnaire auto-rapporté validé (Archambault et Janosz, 2009) et b) un outil conçu à l’aide de données administratives, créé par une commission scolaire du Québec. La comparaison de ces outils est effectuée en termes de qualités psychométriques et d’aspect pratique pour le milieu scolaire. Pour ce faire, un échantillon de 1557 élèves (50% de garçons), âgé entre 14 et 18 ans est utilisé. Les résultats indiquent que l’indice administratif possède une capacité discriminante adéquate, mais inférieure à celle de l’indice auto-rapportée, jugée excellente. L’effet modérateur du sexe n’a pas été confirmé. Les avantages et inconvénients respectifs de ces deux modes de dépistage sont discutés.
Resumo:
Le présent projet doctoral vise à considérer les lacunes dans la documentation scientifique sur le Trouble Paraphilique Coercitif (TPC) en mettant l’accent sur la validité des critères diagnostiques proposés pour inclusion dans le DSM-5 et les marqueurs comportementaux. À ce fait, les données archivées d’individus ayant sexuellement agressé des femmes adultes ont été étudiées. La thèse est constituée de trois articles empiriques. Le premier article présente des résultats clés découlant des analyses, élaborés dans les articles subséquents. Le second (N = 47) évalue les fréquences observées du TPC, la validité et l’impact du recours au nombre minimal de victimes comme critère diagnostique, ainsi que les indices prédisant la récidive sexuelle. Le troisième article (N = 52) compare les groupes diagnostiques sur une série de comportements délictuels, tels que les gestes sexuels et les comportements violents, dans le but d’identifier les marqueurs comportementaux associés avec la propension au viol qui pourraient assister dans le processus diagnostique. Dans le même ordre d’idées, nous avons créé des typologies de violeurs à partir des gestes sexuels commis, d’un côté, et des comportements violents, de l’autre côté. Conséquemment, les caractéristiques des typologies ainsi obtenues et leur association avec le TPC furent examinées. Dans l’ensemble, nos résultats ne soutiennent pas le recours au nombre de victimes. Nos données suggèrent que, globalement, les violeurs avec le TPC utilisent un niveau de gestes sexuels plus envahissant et un niveau de violence moindre que les violeurs n’ayant pas ce diagnostic, et que l’exhibitionnisme et l’attouchement pourraient servir de marqueurs comportementaux pour le TPC. En outre, les violeurs avec le TPC sont caractérisés davantage par demande indécente, exhibitionnisme, attouchement, masturbation, tentative de pénétration et pénétration digitale que par pénétration vaginale et sodomie. De plus, ces derniers font moins recours à l’utilisation d’armes, semblent ne pas frapper/donner des coups à la victime et sont caractérisés par la manipulation plutôt que par le recours aux menaces de mort, force excessive et utilisation d’armes. En somme, nos données soulignent la nécessité de s’appuyer sur une combinaison de méthodes d’évaluation afin d’améliorer la validité diagnostique et discriminante du TPC.
Resumo:
Bien que des photographies d’expressions émotionnelles faciales soient couramment utilisées pour étudier le traitement des informations affectives, les ensembles de stimuli actuels comportent différentes limites méthodologiques. Dans la perspective d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF), l’étude propose un nouvel ensemble de stimuli dynamiques constitué de personnages virtuels exprimant les six émotions fondamentales à différentes intensités. La validation préliminaire des stimuli a été effectuée en les comparant aux stimuli du POFA. Dans l’étude 1, le contenu émotionnel de 84 avatars statiques et de 48 photographies du POFA a été évalué par 150 étudiants. Dans l’étude 2, la REF a été évaluée chez 134 étudiants à l’aide d’avatars dynamiques. L’habileté à reconnaître les émotions est similaire à celle rapportée dans la littérature scientifique ainsi qu’au POFA. Les résultats permettent de conclure que les avatars constituent un ensemble valide de stimuli pour étudier la REF, offrant une contribution significative dans le domaine de la recherche émotionnelle. L’usage d’avatars étant de plus en plus courant à des fins d’intervention et de recherche, les stimuli ouvrent aussi la voie à diverses applications, entre autres pour l’étude des comportements violents. D’autres travaux devront être réalisés afin de poursuivre leur validation.
Resumo:
Il est maintenant bien établi que le cerveau humain est doté d’un système de neurones qui s’active tant à la perception qu’à l’exécution d’une action. Les neurones miroirs, ainsi que le système qu’ils forment avec des structures adjacentes appelées système neurones miroirs (SNM), ont été relié à la compréhension d’action et pourrait être impliqué dans les fonctions sociales de haut niveau tel que l’empathie et l’imitation. Dans la foulée spéculative reliant le SNM à la sphère sociale, le dysfonctionnement de ce système a rapidement gagné intérêt dans la genèse des anomalies du domaine social chez les personnes présentant le Trouble du spectre de l’autisme (TSA). Néanmoins, l’hypothèse voulant que le dysfonctionnement social des TSA repose sur une atteinte du SNM est controversée. En effet, les études soutenant cette hypothèse nécessitent des fonctions cognitives et sociales qui peuvent contribuer à l’obtention de résultats atypiques, telles que la compréhension des consignes, l’attention sur des stimuli sociaux ou la réalisation d’acte moteur. Récemment, un protocole auditif de négativité de discordance (MMN) utilisant des stimuli reliés à l’action humaine a été utilisé pour mesurer l’activité du SNM. Cette technique semble prometteuse dans la mesure où elle ne nécessite pas de capacités attentionnelles ou langagières, elle est brève et demande un montage minimal d’électrodes. Le premier article avait comme objectif principal de mesurer la validité de convergence du protocole MMN relié à l’action avec celui du rythme mu, le protocole le plus utilisé pour enregistrer l’activité miroir à l’aide de l’électroencéphalographie (EEG). Les modes de stimulation ont été délivrées en bloc successif à un groupe de 12 adultes en santé. Alors que les deux techniques ont modulé efficacement les régions fronto-centrales et centrales respectivement, mais ne sont pas corrélées, nous avons conclu qu’il est possible 2 qu’elles mesurent des aspects différents du SNM. Le deuxième article avait comme objectif principal de mesurer l’activité du SNM à l’aide du protocole MMN relié à l’action chez 10 enfants présentant un TSA ainsi que chez 12 enfants neurotypiques dans la même tranche d’âge (5-7ans). Chez les enfants TSA, nous avons montré un patron de latence inversée, comparativement aux enfants du groupe contrôle; ils traitaient plus rapidement les sons contrôles que les sons reliés à l’action humaine, alors que la tendance inverse était observée chez les contrôles. De plus, bien que les deux groupes différaient quant aux sons d’action, ils ne différaient pas quant aux sons contrôles. Quant à l’amplitude, les enfants TSA se distinguaient du groupe contrôle par une amplitude restreinte du son d’action provenant de la bouche. Par ailleurs, les mesures neurophysiologiques et neuropsychologiques n’étaient pas corrélées. En sommes, basé sur la prémisse que ce protocole MMN pourrait mesurer l’activité du SNM, cette thèse a comme but d’améliorer les connaissances quant à son utilisation chez l’adulte et l’enfant neurotypique ainsi que chez l’enfant TSA. Celui-ci pourrait ultimement être utilisé comme un biomarqueur potentiel du TSA.
Resumo:
Les adultes peuvent éprouver des difficultés à discriminer des phonèmes d’une langue seconde (L2) qui ne servent pas à distinguer des items lexicaux dans leur langue maternelle (L1). Le Feature Model (FM) de Brown (1998) propose que les adultes peuvent réussir à créer des nouvelles catégories de sons seulement si celles-ci peuvent être construites à partir de traits distinctifs existant dans la L1 des auditeurs. Cette hypothèse a été testée sur plusieurs contrastes consonantiques dans différentes langues; cependant, il semble que les traits qui s’appliquent sur les voyelles n’aient jamais été examinés dans cette perspective et encore moins les traits qui opèrent à la fois dans les systèmes vocalique et consonantique et qui peuvent avoir un statut distinctif ou non-distinctif. Le principal objectif de la présente étude était de tester la validité du FM concernant le contraste vocalique oral-nasal du portugais brésilien (PB). La perception naïve du contraste /i/-/ĩ/ par des locuteurs du français, de l’anglais, de l’espagnol caribéen et de l’espagnol conservateur a été examinée, étant donné que ces quatre langues diffèrent en ce qui a trait au statut de la nasalité. De plus, la perception du contraste non-naïf /e/-/ẽ/ a été inclus afin de comparer les performances dans la perception naïve et non-naïve. Les résultats obtenus pour la discrimination naïve de /i/-/ĩ/ a permis de tirer les conclusions suivantes pour la première exposition à un contraste non natif : (1) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 peut être redéployé au sein du système vocalique, (2) le trait [nasal] qui opère de façon distinctive dans la grammaire d’une certaine L1 ne peut pas être redéployé à travers les systèmes (consonne à voyelle) et (3) le trait [nasal] qui opère de façon non-distinctive dans la grammaire d’une certaine L1 peut être ou ne pas être redéployé au statut distinctif. En dernier lieu, la discrimination non-naïve de /e/-/ẽ/ a été réussie par tous les groupes, suggérant que les trois types de redéploiement s’avèrent possibles avec plus d’expérience dans la L2.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
An interdisciplinary team of a pediatric university teaching hospital in the Montreal area, who treats annually a considerable number of child burn victims, developed a behavioral observation scale on the comfort of children of 7 years of age and less during painful procedures «Échelle d’observation comportementale du confort d’enfants brûlés» (OCCEB- BECCO). The goal of this study was to initiate the validation of OCCEB-BECCO, a new tool for evaluation of comfort for child burn victims. With samples of 16 patients and 5 experts, we proceeded to the evaluation of content validity, internal consistency and criterion validity. Results have shown adequate content validity, internal consistency with (T1) r = 0,96 p < 0,0001, (T2) r = 0,95 p < 0,0001, (T3) r = 0,95 p < 0,0001 and criterion validity with Cronbach alpha at 0,82. A future study with a larger sample and on a longer period of time would be required to pursue validation of this new scale.
Resumo:
L’Inventaire des risques et des besoins liés aux facteurs criminogènes (IRBC) est un instrument utilisé depuis le début des années 1990 pour évaluer les risques de récidive des jeunes contrevenants québécois. Il est le produit d’une collaboration du Québec avec l’Ontario, survenue dans le cadre de travaux de recherche effectués sur les instruments d’évaluation du risque de récidive des jeunes contrevenants. L’IRBC est donc le seul instrument précisément conçu pour évaluer les risques de récidive des jeunes contrevenants québécois et il n’a jamais fait l’objet d’une démarche visant à tester sa validité prédictive. Le but de ce projet de mémoire est de tester la validité prédictive de l’IRBC. Des analyses de courbes ROC et des analyses de survie ont été utilisées pour tester les propriétés métriques de l’instrument. Ces analyses suggèrent que, dans l’ensemble, l’IRBC arrive à prédire la récidive de façon acceptable. Quatre des huit grands domaines associés à la récidive, communément appelé BIG FOUR, seraient des prédicteurs modérés de la récidive lorsque testés avec les données issues de l’IRBC. Il s’agit des domaines Antécédents, Pairs, Personnalité-Comportements, et Attitudes-Tendances. Des aspects en lien avec la fidélité de l’instrument témoignent toutefois d’irrégularités dans le processus d’évaluation, ce qui interroge le niveau de rigueur maintenu au jour le jour par les professionnels. Des aspects en lien avec la fidélité de l’IRBC demeureraient à investiguer.
Resumo:
Même si de plus en plus de psychoéducateurs utilisent des approches appuyées sur des données probantes, ils sont également confrontés dans leur pratique quotidienne à des approches dites alternatives dont la validité, dans la majorité des cas, reste à démontrer. Parmi celles-ci, l’homéopathie prétend traiter un ensemble de problèmes psychosociaux dont le TDAH, les troubles d’apprentissage, l’anxiété, la peur, etc. L’objectif de cet article est de considérer la pertinence de cette approche non seulement pour traiter les problèmes psychosociaux mais également l’ensemble des troubles qu’elle prétend soigner. Cet article comprend cinq parties. Dans la première, nous situons l’histoire de l’homéopathie dans le cadre de la chimie et de la pharmacologie modernes. La deuxième est consacrée à ce qu’il est convenu maintenant d’appeler « l’affaire de la mémoire de l’eau » que des homéopathes ont tenté de récupérer à leur profit pour justifier l’activité de leurs produits même lorsque la dilution de ceux-ci est telle qu’ils ne contiennent plus de molécule active. Au cours de la troisième partie, nous faisons état de la recherche concernant l’efficacité des traitements homéopathiques. Dans la quatrième partie, nous montrons brièvement que l’homéopathie vétérinaire n’est pas plus efficace que l’homéopathie appliquée aux humains. Dans la cinquième partie, nous soulevons quelques aspects éthiques en soulignant entre autres éléments que la prescription des produits homéopathiques et l’utilisation des « vaccins » de même nature ne sont pas sans conséquences.
Resumo:
L'oxygénothérapie hyperbare (OTH) consiste à soumettre un patient à des taux de pression plus élevés que la pression atmosphérique normale et de lui faire respirer 100 % d'oxygène. Cette approche a été mise à l'essai pour le traitement de nombreuses conditions médicales avec succès dans certains cas alors pour d'autres sa validité reste encore à démontrer. Dans le cas de la paralysie cérébrale son utilisation a soulevé de nombreuses controverses et les études conduites jusqu'alors n'ont pas encore convaincu tous les membres de la communauté scientifique et ce, malgré certains effets positifs mis en évidence. Une récente étude qui a montré des améliorations notables chez des enfants atteints de paralysie cérébrale (PC) traités avec de l'air légèrement pressurisé, de même que chez ceux traités avec un protocole standard pour l'oxygénothérapie hyperbare (l'OTH), est invoquée pour nier l'efficacité de l'OTH. Des considérations politiques et économiques, plutôt que purement scientifiques, jouent un rôle important dans cette controverse. Des recherches systématiques supplémentaires sont requises, mais entre-temps, comme les effets thérapeutiques de cette approche semblent plus importants que ceux des thérapies actuellement acceptées dans le traitement de la paralysie cérébrale, les enfants atteints de cette condition ne devraient pas se faire refuser l'accès à l'OTH.
Resumo:
Esta dissertação contém a caracterização crítica de prática do ensino e da pesquisa em Química na universidade brasileira a partir dos conceitos de base extraídos da obra de Gaston Bachelard. A validade das idéias de Bachelard permite a colocaça0 de propostas de pesquisas pedagógicas e epistemológicas que possivelmente abrirão novos caminhos de encontro e enriquecimento mútuo entre o ensino e a pesquisa no campo da Química.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Lo scopo del presente elaborato è lo studio della regolarità stradale. La regolarità è una caratteristica fondamentale sia dal punto di vista dell’utenza, poiché da essa dipendono il comfort, ma soprattutto, la sicurezza della guida, sia dal punto di vista dell’ente proprietario della strada, perché dalla regolarità dipende la pianificazione della manutenzione della rete viaria, con tutti i pesi economici che essa comporta. Da questa piccola considerazione si comprende perché nell’ultimo secolo l’argomento abbia suscitato sempre maggiore interesse, vedendo la nascita, sin dagli anni ’50, di strumenti sempre più sofisticati, grazie allo sviluppo dell’elettronica, e sempre più veloci nell’acquisizione dei dati, per far fronte al contemporaneo sviluppo della rete viaria. Nel primo capitolo si affronterà la tematica della regolarità stradale, cercando di comprenderne la natura e i suoi livelli di degrado, dei quali viene fatta un’ampia descrizione, comprensiva di cause scatenanti. Inoltre si fa un accenno al Catasto Stradale, poiché costituisce uno strumento essenziale per la gestione dell’infrastruttura viaria e per l’ottimizzazione delle risorse destinate alla sua manutenzione e alla sua sicurezza; infine si parla delle tecnologie finalizzate al rilievo della regolarità. Il secondo capitolo è dedicato al panorama normativo in materia di regolarità stradale. Le varie norme sono commentate nel dettaglio, data l’importanza di una standardizzazione nella calibrazione e nell’uso degli strumenti di rilievo e nelle procedure di stima della regolarità. Il capitolo successivo contiene una trattazione sugli indici di regolarità, ma l’attenzione è in particolar modo rivolta all’IRI, l’indice internazionale di irregolarità. Per le caratteristiche con cui è stato concepito, cioè stabilità temporale, validità e compatibilità, è stato assunto come scala di riferimento internazionale, a cui gli altri indici possono riferirsi. Viene quindi illustrato il significato di IRI, il modello matematico su cui si basa la sua definizione, per passare poi al procedimento analitico e a quello informatico con il quale viene calcolato. Essendo la presente tesi avvenuta in collaborazione con la ditta Siteco Informatica di Bologna, nel capitolo quarto, sono stati analizzati gli strumenti installati sul veicolo ad alto rendimento (VAR) messo a disposizione dalla ditta stessa. Gli strumenti consistono principalmente in dispositivi per il calcolo del posizionamento e dell’assetto del veicolo, in un profilometro laser per il rilievo della regolarità stradale e in un laser scanner, di cui si è tentato di studiarne le potenzialità nell’ambito dell’oggetto di questa tesi. Il percorso di ricerca ha incluso l’esperienza diretta in sito tramite varie campagne di rilievo, per meglio comprendere il mezzo e la natura dei dati ottenuti. Si è quindi ripercorso l’intero processo di elaborazione dei dati grezzi di rilievo, così com’è strutturato per le finalità della ditta collaborante, per utilizzare poi il dato finito per finalità ingegneristiche.
Resumo:
Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.
Resumo:
La presente tesi concerne il trattato "Ottica" scritto da Euclide nel III secolo a.C. quando, nell'area del bacino del Mediterraneo, si verificò una rivoluzione scientifica che diede origine alla nascita della scienza moderna. Si colloca nel filone delle ricerche volte a ricostruire la verità storica ed il contenuto scientifico del pensiero dello scienziato ed a meglio illustrare i contributi dati, dalla scienza ellenistica, alla conoscenza del fenomeno visivo. Si sono presi in esame dunque il momento storico e la situazione economica, sociale e scientifica verificatasi nel III secolo a.C., in particolare ad Alessandria d'Egitto, dove l'incontro del pensiero greco con le culture preesistenti portò alla nascita del metodo scientifico moderno; si sono considerati il pensiero filosofico del tempo e le teorie scientifiche sviluppatesi, con particolare riguardo alla matematica ed alla scienza medica, fondata dal medico alessandrino Erofilo. Si è poi preso in esame il contenuto del trattato. L' "Ottica" è il primo trattato di ottica geometrica della storia e la prima teoria scientifica che si occupi della visione. È basato sul metodo ipotetico-deduttivo, su conoscenze di oftalmologia e sulla scienza matematica degli Elementi. È un modello geometrico di un processo fisiologico e riconferma la matematica quale strumento principe per la costruzione del sapere scientifico. Crea modelli utili per altre teorie scientifiche (ad es. l'astronomia) e per le arti figurative ed ha applicazioni tecnologiche (ad es. l'astrolabio e la diottra). È il testo di base della moderna ottica geometrica. Non si pone come una verità assoluta ma come un'ipotesi di lavoro. Si sono esaminati il difficile percorso storico e bibliografico dell'opera caratterizzato da incomprensioni e manomissioni nonché la ricerca filologica volta a ricostruire l'integrità del testo. Si ritenne infatti che la sua validità fosse inficiata da alcuni "errori", in realtà dovuti all'incomprensione dei concetti e del metodo euclidei ed alle successive manomissioni. Emerge come la scienza non abbia avuto un progresso costante, continuo, aprioristico e come sia incerta ed instabile la conservazione nel tempo del sapere scientifico. Appare inoltre evidente come la scienza sia un prodotto della cultura umana e pertanto come la conoscenza della storia sia una condizione fondante per il progresso scientifico.