779 resultados para Validité méthodologique
Resumo:
Les délinquants sexuels sadiques sont généralement décrits comme une entité clinique particulière commettant des délits graves. Or, la notion même de sadisme sexuel pose un nombre important de problèmes. Parmi ceux-ci, on retrouve des problèmes de validité et de fidélité. Perçu comme une maladie dont on est atteint ou pas, le sadisme a été étudié comme si les sadiques étaient fondamentalement différents. À l’heure actuelle, plusieurs travaux laissent croire que la majorité des troubles psychologiques se présentent comme une différence d'intensité (dimension) plutôt qu’une différence de nature (taxon). Même si la conception médicale prévaut encore en ce qui concerne le sadisme sexuel, plusieurs évoquent l’idée qu’il pourrait être mieux conceptualisé à l’aide d’une approche dimensionnelle. En parallèle, nos connaissances sur les facteurs contributifs au développement du sadisme sexuel sont limitées et reposent sur de faibles appuis empiriques. Jusqu'à présent, très peu d'études se sont intéressées aux facteurs menant au développement du sadisme sexuel et encore moins ont tenté de valider leurs théories. En outre, nos connaissances proviennent majoritairement d'études de cas portant sur les meurtriers sexuels, un sous-groupe très particulier de délinquants fréquemment motivé par des intérêts sexuels sadiques. À notre connaissance, aucune étude n'a proposé jusqu'à présent de modèle développemental portant spécifiquement sur le sadisme sexuel. Pourtant, l'identification de facteurs liés au développement du sadisme sexuel est essentielle dans notre compréhension ainsi que dans l'élaboration de stratégie d'intervention efficace. La présente thèse s'inscrit dans un contexte visant à clarifier le concept de sadisme sexuel. Plus spécialement, nous nous intéressons à sa structure latente, à sa mesure et à ses origines développementales. À partir d'un échantillon de 514 délinquants sexuels évalué au Massachusetts Treatment Center, la viabilité d’une conception dimensionnelle du sadisme sexuel sera mise à l’épreuve à l'aide d'analyses taxométriques permettant d'étudier la structure latente d'un construit. Dans une seconde étape, à l'aide d'analyses de Rasch et d'analyses appartenant aux théories de la réponse à l'item à deux paramètres, nous développerons la MTC Sadism Scale (MTCSS), une mesure dimensionnelle du sadisme sexuel. Dans une troisième et dernière étape, un modèle développemental sera élaboré à l'aide d'équations structurales. La présente thèse permettra de contribuer à la clarification du concept de sadisme sexuel. Une clarification de la structure latente et des facteurs développementaux permettra de saisir les devis de recherche les plus à même de capturer les aspects essentiels. En outre, ceci permettra d'identifier les facteurs pour lesquels une intervention est la plus appropriée pour réduire la récidive, ou la gravité de celle-ci.
Resumo:
La frontière entre le politique et l'intellectualisme militant est, d'ordinaire, ténue. Tout univers politico-constitutionnel est ainsi susceptible de faire les frais d'un martèlement doctrinal qui, à maints égards, relève davantage du construit que du donné. Résultante directe d'une construction parfois intéressée, le récit identitaire, à force de répétition, s'installera confortablement sur les sièges de l'imaginaire populaire. Il accèdera, au fil du temps, au statut de mythe pur et simple. Ce dernier, politiquement parlant, revêt de puissants effets aphrodisiaques. La présente thèse doctorale s'intéresse plus particulièrement aux mythes créés, depuis 1982, par un segment de la doctrine québécoise : en matière de droits linguistiques, objet principal de notre étude, Charte canadienne des droits et libertés et Cour suprême, toutes deux liguées contre le Québec, combineront leurs efforts afin d'assurer le recul du fait français dans la Belle Province. Quant aux francophones hors Québec, ceux-ci, depuis l'effritement du concept de nation canadienne-française, sont dorénavant exclus de l'équation, expurgés de l'échiquier constitutionnel. En fait, l'adoption d'un nationalisme méthodologique comme nouvelle orthodoxie politique et doctrinale rend ardue, en plusieurs sens, la conciliation de leur existence avec les paradigmes et épistémologie maintenant consacrés. Ainsi, et selon la logique du tiers exclu, une victoire francophone hors Québec signifiera, du fait d'une prétendue symétrie interprétative, un gain pour la communauté anglo-québécoise. Cette thèse vise à discuter de la teneur de diverses allégories établies et, le cas échéant, à reconsidérer la portée réelle de la Charte canadienne en matière linguistique. Il sera alors démontré que plusieurs lieux communs formulés par les milieux intellectuels québécois échouent au moins partiellement, le test de l'analyse factuelle. Celui-ci certifiera de l'exclusion, par la doxa, de toute décision judiciaire ou autre vérité empirique ne pouvant cadrer à même les paramètres, voire les prismes, de l'orthodoxie suggérée.
Resumo:
450 p.
Resumo:
Dietary studies of marine species constitute an important key to improve the understanding of its biology and of its role in the ecosystem. Thus, prey-predator relationships structure and determine population dynamics and the trophic network at the ecosystem scale. Among the major study sites, the marine ecosystem is submitted to natural and anthropogenic constraints. In the North-Eastern part of the Atlantic Ocean, the Bay of Biscay is a large open area surrounded South by Spain and East by France. This bay is an historic place of intense fishery activities for which the main small pelagic species targeted are the pilchard, Sardina pilchardus and the anchovy, Engraulis encrasicolus. The aim of this work is to analyze the trophic ecology of these two small pelagic fish in spring in the Bay of Biscay. To do this, a first section is devoted to their prey composed by the mesozooplanktonic compartment, through a two-fold approach: the characterization of their spatio-temporal dynamics during the decade 2003-2013 and the measurement of their energetic content in spring. For this season, it appears that all prey types are not worth energetically and that the Bay of Biscay represents a mosaic of dietary habitat. Moreover, the spring mesozooplankton community presents a strong spatial structuration, a temporal evolution marked by a major change in abundance and a control by the microphytoplankton biomass. The second section of this work is relative to a methodological approach of the trophic ecology of S. pilchardus and E. encrasicolus. Three different trophic tracers have been used: isotopic ratios of carbon and nitrogen, parasitological fauna and mercury contamination levels. To improve the use of the first of these trophic tracers, an experimental approach has been conducted with S. pilchardus to determine a trophic discrimination factor. Finally, it appears that the use of these three trophic tracers has always been permitted to highlight a temporal variability of the relative trophic ecology of these fish. However, no spatial dynamics could be identified through these three trophic tracers.
Resumo:
L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.
Resumo:
Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.
Resumo:
La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.
Resumo:
L’objectif de ce mémoire est d’étudier les formes de sélectivité scolaire et les facteurs de la réussite dans les programmes de premier cycle universitaire au Québec. En s’appuyant sur les différents écrits sur le sujet, cette recherche présente les différents déterminants de la réussite scolaire ainsi que la sélectivité dans les programmes universitaires québécois. D’un point de vue méthodologique, ce mémoire utilise une base administrative de données longitudinales de l’Université de Montréal constituée de deux générations de cohortes d’étudiants de premier cycle. Sur le plan empirique, nous analysons d’abord la différenciation des programmes de premier cycle en matière de sélectivité pour en dériver un indicateur agrégé de sélectivité. Ensuite, nous étudions les facteurs individuels de réussite en contrôlant l’effet de la cote R dans un modèle multiniveau. L’analyse explicative fait apparaitre deux principaux constats originaux sur les facteurs de réussite, l’un relatif à la cote R et l’autre à l’appartenance de sexe. La cote R influence les chances de réussite des étudiants, mais en raison inverse du niveau de sélectivité à l’entrée. Dans les programmes où la sélection à l’entrée est la plus forte, les taux de diplomation sont les plus élevés et le lien entre la cote R et la note finale est très faible. En outre, le fait d’être un garçon tend à réduire les chances de réussite, mais cet effet négatif disparait quand on tient compte de la cote R ainsi que du programme d’appartenance dans un modèle multiniveau. Si les étudiantes réussissent mieux au niveau du premier cycle universitaire c’est donc surtout parce qu’elles ont eu de meilleures performances scolaires antérieurement et qu’elles ne sont pas dans les mêmes programmes que leurs homologues masculins.
Resumo:
L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.
Resumo:
Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.
Resumo:
Dans le cadre du cours PHT-6123 : Travail d’intégration
Resumo:
Il presente elaborato esplora l’attitudine delle organizzazioni nei confronti dei processi di business che le sostengono: dalla semi-assenza di struttura, all’organizzazione funzionale, fino all’avvento del Business Process Reengineering e del Business Process Management, nato come superamento dei limiti e delle problematiche del modello precedente. All’interno del ciclo di vita del BPM, trova spazio la metodologia del process mining, che permette un livello di analisi dei processi a partire dagli event data log, ossia dai dati di registrazione degli eventi, che fanno riferimento a tutte quelle attività supportate da un sistema informativo aziendale. Il process mining può essere visto come naturale ponte che collega le discipline del management basate sui processi (ma non data-driven) e i nuovi sviluppi della business intelligence, capaci di gestire e manipolare l’enorme mole di dati a disposizione delle aziende (ma che non sono process-driven). Nella tesi, i requisiti e le tecnologie che abilitano l’utilizzo della disciplina sono descritti, cosi come le tre tecniche che questa abilita: process discovery, conformance checking e process enhancement. Il process mining è stato utilizzato come strumento principale in un progetto di consulenza da HSPI S.p.A. per conto di un importante cliente italiano, fornitore di piattaforme e di soluzioni IT. Il progetto a cui ho preso parte, descritto all’interno dell’elaborato, ha come scopo quello di sostenere l’organizzazione nel suo piano di improvement delle prestazioni interne e ha permesso di verificare l’applicabilità e i limiti delle tecniche di process mining. Infine, nell’appendice finale, è presente un paper da me realizzato, che raccoglie tutte le applicazioni della disciplina in un contesto di business reale, traendo dati e informazioni da working papers, casi aziendali e da canali diretti. Per la sua validità e completezza, questo documento è stata pubblicato nel sito dell'IEEE Task Force on Process Mining.
Resumo:
La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.