203 resultados para normalisation
Resumo:
Motivé par l’évolution de la production architecturale durable dans les pays d’Amérique latine, et plus particulièrement en Colombie, mon projet de recherche porte sur l’adaptation de l’architecture à ce nouveau contexte. L’approche architecturale traditionnelle à la prise en compte de l’énergie et du climat est l’architecture bioclimatique : reproduite à partir de connaissances et techniques ancestrales remontant à la conception de l’abri, cette dernière étudie les phénomènes physiques associés au confort thermique afin de les reproduire dans une nouvelle architecture. De nouvelles méthodes d’évaluation environnementale se sont développées dans les dernières décennies pour améliorer l’intégration environnementale des bâtiments. Ces méthodes privilégient la normalisation des solutions et utilisent des systèmes de certification pour reconnaître la performance environnementale et énergétique des bâtiments. Le résultat visé est la conformité aux standards internationaux de durabilité. Ce mémoire porte sur l’analyse comparative de l’architecture bioclimatique et de la certification environnementale à partir de la structure des sujets abordés par LEED, une des méthodes les plus connues d’une telle certification. Cette comparaison permet de constater que les deux approches sont motivées par les mêmes préoccupations environnementales mais que leurs méthodes d’intégration de ces préoccupations diffèrent, en particulier quant à la prise en compte des facteurs locaux et globaux.
Resumo:
La rédaction de ce mémoire a été possible grâce à la bourse d’études supérieures du Canada (BESC M), Joseph-Armand-Bombardier du Centre de Recherche en Sciences Humaines (CRSH) du gouvernement du Canada, 2015.
Resumo:
Motivé par l’évolution de la production architecturale durable dans les pays d’Amérique latine, et plus particulièrement en Colombie, mon projet de recherche porte sur l’adaptation de l’architecture à ce nouveau contexte. L’approche architecturale traditionnelle à la prise en compte de l’énergie et du climat est l’architecture bioclimatique : reproduite à partir de connaissances et techniques ancestrales remontant à la conception de l’abri, cette dernière étudie les phénomènes physiques associés au confort thermique afin de les reproduire dans une nouvelle architecture. De nouvelles méthodes d’évaluation environnementale se sont développées dans les dernières décennies pour améliorer l’intégration environnementale des bâtiments. Ces méthodes privilégient la normalisation des solutions et utilisent des systèmes de certification pour reconnaître la performance environnementale et énergétique des bâtiments. Le résultat visé est la conformité aux standards internationaux de durabilité. Ce mémoire porte sur l’analyse comparative de l’architecture bioclimatique et de la certification environnementale à partir de la structure des sujets abordés par LEED, une des méthodes les plus connues d’une telle certification. Cette comparaison permet de constater que les deux approches sont motivées par les mêmes préoccupations environnementales mais que leurs méthodes d’intégration de ces préoccupations diffèrent, en particulier quant à la prise en compte des facteurs locaux et globaux.
Resumo:
This paper will propose that, rather than sitting on silos of data, historians that utilise quantitative methods should endeavour to make their data accessible through databases, and treat this as a new form of bibliographic entry. Of course in many instances historical data does not lend itself easily to the creation of such data sets. With this in mind some of the issues regarding normalising raw historical data will be looked at with reference to current work on nineteenth century Irish trade. These issues encompass (but are not limited to) measurement systems, geographic locations, and potential problems that may arise in attempting to unify disaggregated sources. It will discuss the need for a concerted effort by historians to define what is required from digital resources for them to be considered accurate, and to what extent the normalisation requirements for database systems may conflict with the desire for accuracy. Many of the issues that the historian may encounter engaging with databases will be common to all historians, and there would be merit in having defined standards for referencing items, such as people, places, locations, and measurements.
Resumo:
C’est en réponse aux plus récentes crises financières que plusieurs processus réglementaires – dont certains constituent les objets d’étude de cette thèse – ont été déployés pour concevoir et implanter diverses réformes « d’amélioration » au sein de la pratique professionnelle des auditeurs financiers. Tant la crise du début des années 2000 que celle de 2007-2008 auraient attiré de vives critiques à l’égard du travail des auditeurs et de leur contribution (prétendument défaillante) au sein du fonctionnement des marchés des capitaux. Considérant leur fonction de « chien de garde » qui est censée assurer, avant tout, la protection du public au sein de ces marchés, il semblait inévitable que leur travail soit, dans une certaine mesure, remis en doute à travers les processus de révision réglementaire mis en place. C’est ainsi que chacun des trois articles qui composent cette thèse offre une analyse de différents aspects – tels que la mise en place, le déroulement, la nature et la substance des discours et des résultats – liés à ces processus de révision réglementaire qui entourent la pratique professionnelle des auditeurs au lendemain des crises financières. En somme, en plus d’indiquer comment ces processus ne sont point à l’abri de controverses, les conclusions de cette thèse inciteront à ce qu’une attention sérieuse soit portée à leur égard afin de préserver le bienfondé de la profession des comptables et des auditeurs. Alors que, dans le premier article, il sera question d’illustrer l’infiltration (critiquable) d’un discours néolibéral au sein des débats qui entourent les processus de révision réglementaire dont il est question, dans le deuxième article, il sera question d’exposer, au sein de ces processus, un mécanisme de production de mythes prônant un certain statu quo. Par ailleurs, dans le dernier article, en plus de mettre en évidence le fait que les approches de gouvernance déployées à travers ces processus de révision réglementaire ne sont pas suffisamment englobantes, on pourra aussi prendre conscience de l’inféodation de l’expertise de l’audit face à son environnement (et plus précisément, face aux expertises de la normalisation comptable et de la financiarisation de l’économie). Sous un regard critique, et à travers des analyses qualitatives, chacun des articles de cette thèse permettra de remettre en question certaines facettes des processus réglementaires et institutionnels qui entourent le champ de la comptabilité et de l’audit.
Resumo:
Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).
Resumo:
Background and aims: Advances in modern medicine have led to improved outcomes after stroke, yet an increased treatment burden has been placed on patients. Treatment burden is the workload of health care for people with chronic illness and the impact that this has on functioning and well-being. Those with comorbidities are likely to be particularly burdened. Excessive treatment burden can negatively affect outcomes. Individuals are likely to differ in their ability to manage health problems and follow treatments, defined as patient capacity. The aim of this thesis was to explore the experience of treatment burden for people who have had a stroke and the factors that influence patient capacity. Methods: There were four phases of research. 1) A systematic review of the qualitative literature that explored the experience of treatment burden for those with stroke. Data were analysed using framework synthesis, underpinned by Normalisation Process Theory (NPT). 2) A cross-sectional study of 1,424,378 participants >18 years, demographically representative of the Scottish population. Binary logistic regression was used to analyse the relationship between stroke and the presence of comorbidities and prescribed medications. 3) Interviews with twenty-nine individuals with stroke, fifteen analysed by framework analysis underpinned by NPT and fourteen by thematic analysis. The experience of treatment burden was explored in depth along with factors that influence patient capacity. 4) Integration of findings in order to create a conceptual model of treatment burden and patient capacity in stroke. Results: Phase 1) A taxonomy of treatment burden in stroke was created. The following broad areas of treatment burden were identified: making sense of stroke management and planning care; interacting with others including health professionals, family and other stroke patients; enacting management strategies; and reflecting on management. Phase 2) 35,690 people (2.5%) had a diagnosis of stroke and of the 39 co-morbidities examined, 35 were significantly more common in those with stroke. The proportion of those with stroke that had >1 additional morbidities present (94.2%) was almost twice that of controls (48%) (odds ratio (OR) adjusted for age, gender and socioeconomic deprivation; 95% confidence interval: 5.18; 4.95-5.43) and 34.5% had 4-6 comorbidities compared to 7.2% of controls (8.59; 8.17-9.04). In the stroke group, 12.6% of people had a record of >11 repeat prescriptions compared to only 1.5% of the control group (OR adjusted for age, gender, deprivation and morbidity count: 15.84; 14.86-16.88). Phase 3) The taxonomy of treatment burden from Phase 1 was verified and expanded. Additionally, treatment burdens were identified as arising from either: the workload of healthcare; or the endurance of care deficiencies. A taxonomy of patient capacity was created. Six factors were identified that influence patient capacity: personal attributes and skills; physical and cognitive abilities; support network; financial status; life workload, and environment. A conceptual model of treatment burden was created. Healthcare workload and the presence of care deficiencies can influence and be influenced by patient capacity. The quality and configuration of health and social care services influences healthcare workload, care deficiencies and patient capacity. Conclusions: This thesis provides important insights into the considerable treatment burden experienced by people who have had a stroke and the factors that affect their capacity to manage health. Multimorbidity and polypharmacy are common in those with stroke and levels of these are high. Findings have important implications for the design of clinical guidelines and healthcare delivery, for example co-ordination of care should be improved, shared decision-making enhanced, and patients better supported following discharge from hospital.
Resumo:
Il progetto di tesi nasce dalla volontà di far luce sul rapporto tra il medium fotografico e la nozione di nuova oscenità, teorizzata e disseminata nei suoi scritti da Jean Baudrillard. Nozione che – se intesa nell’accezione proposta dal filosofo francese, ovvero l’oscenità del visibile, del troppo visibile, del più visibile del visibile – ben si adatta a dettagliare i concetti di trasparenza e di visibilità peculiari della società attuale, costantemente impegnata nel mettere a nudo se stessa attraverso i social media in nome della cosiddetta ideologia della post-privacy. Incoraggiando una continua violazione della sfera del segreto, tale ideologia favorirebbe, infatti, la progressiva diminuzione dello scarto tra ciò che può essere reso di dominio pubblico e ciò che invece, tradizionalmente, sarebbe dovuto appartenere all’ambito del privato. Un andamento generale della cultura, quello appena delineato, che si è imposto capillarmente a cavallo di millennio, accelerato dalla nascita del World Wide Web, del quale la fotografia riesce a farsi promotrice oltre che sommo interprete, contribuendo – anche in virtù di un’innovata condizione tecnologica– al compimento della visibilità e della trasparenza totale. Nel corso della trattazione, la nozione “aggiornata” di osceno sarà, dunque, assurta a strumento euristico utile a tracciare gli svolgimenti paralleli della pratica fotografica nei campi delle arti visive, della moda e dei social media, in un arco temporale che va dall’inizio degli anni Novanta a oggi. Uno strumento attraverso cui connettere autori di riferimento, rileggerne alcuni e candidarne di nuovi tra quanti, allargando il “campo del fotografabile” teorizzato da Pierre Bourdieu, profanano la soglia del privato e portano alla ribalta i risvolti banali e ordinari della quotidianità, fino a quelli intimi, tragici, inquietanti, perturbanti o addirittura nefandi, favorendo così la concretizzazione di quel “bordello senza muri” che secondo Marshall McLuhan è il mondo nell’età fotografica.