961 resultados para General-purpose computing on graphics processing units (GPGPU)
Resumo:
The objective of this thesis is to study the involvement of the Auditor General in the proposal, implementation and review of major public service reform initiatives during a period spanning nearly forty years, from the early 1960s to 2001 . This period began with the Glassco Commission and concludes at the end of the term in office of Auditor General Denis Desautels in 2001. It has been demonstrated throughout this work that the role of the OAG has varied, from proponent to critic, from instigator to reviewer. In the past forty years the OAG's mandate has changed to meet the requirements of critical analysis of government operations and this has been aptly demonstrated in the office's relationship to the issue of public service reform. It has been argued that many of the problems facing the public service are cultural in nature. Reform initiatives have taken on a number of various forms with each addressing a different set of priorities. However, there has been a great deal of consistency in the cultural values that these initiatives articulate. Throughout this thesis attention has been paid to values. Values define a culture and cultural change is required within the Canadian federal public service. How and when this cultural change will occur is but one question to be answered. During the period under consideration in this thesis the government undertook several significant public service reform initiatives. Those examined in this thesis include: The Royal Commission on Government Organization, The Special Committee on the Review of Personnel Management and the Merit Principle, The Royal Commission on Financial Management and Accountability, Increased Ministerial Authority and Accountability, Public Service 2000, Program Review and finally La Releve. The involvement, or interest, of the Auditor General's Office on the subject of public service reform is generally articulated through the means of its annual reports to Parliament although there have been supplementary undertakings on this issue. Such material relevant to this study include: Towards Better Governance: Public Service Reform in New Zealand (1984-94) and its Relevance to Canada and Reform in the Australian Public Service. Annual reports to Parliament include: "Values, Service and Performance," (1990), "Canada's Public Service Reform and Lessons Learned from Selected Jurisdictions," (1993), "Maintaining a Competent and Efficient Public Service," (1997), and "Expenditure and Work Force Reduction in Selected Departments,"
Resumo:
A large variety of social signals, such as facial expression and body language, are conveyed in everyday interactions and an accurate perception and interpretation of these social cues is necessary in order for reciprocal social interactions to take place successfully and efficiently. The present study was conducted to determine whether impairments in social functioning that are commonly observed following a closed head injury, could at least be partially attributable to disruption in the ability to appreciate social cues. More specifically, an attempt was made to determine whether face processing deficits following a closed head injury (CHI) coincide with changes in electrophysiological responsivity to the presentation of facial stimuli. A number of event-related potentials (ERPs) that have been linked specifically to various aspects of visual processing were examined. These included the N170, an index of structural encoding ability, the N400, an index of the ability to detect differences in serially presented stimuli, and the Late Positivity (LP), an index of the sensitivity to affective content in visually-presented stimuli. Electrophysiological responses were recorded while participants with and without a closed head injury were presented with pairs of faces delivered in a rapid sequence and asked to compare them on the basis of whether they matched with respect to identity or emotion. Other behavioural measures of identity and emotion recognition were also employed, along with a small battery of standard neuropsychological tests used to determine general levels of cognitive impairment. Participants in the CHI group were impaired in a number of cognitive domains that are commonly affected following a brain injury. These impairments included reduced efficiency in various aspects of encoding verbal information into memory, general slower rate of information processing, decreased sensitivity to smell, and greater difficulty in the regulation of emotion and a limited awareness of this impairment. Impairments in face and emotion processing were clearly evident in the CHI group. However, despite these impairments in face processing, there were no significant differences between groups in the electrophysiological components examined. The only exception was a trend indicating delayed N170 peak latencies in the CHI group (p = .09), which may reflect inefficient structural encoding processes. In addition, group differences were noted in the region of the N100, thought to reflect very early selective attention. It is possible, then, that facial expression and identity processing deficits following CHI are secondary to (or exacerbated by) an underlying disruption of very early attentional processes. Alternately the difficulty may arise in the later cognitive stages involved in the interpretation of the relevant visual information. However, the present data do not allow these alternatives to be distinguished. Nonetheless, it was clearly evident that individuals with CHI are more likely than controls to make face processing errors, particularly for the more difficult to discriminate negative emotions. Those working with individuals who have sustained a head injury should be alerted to this potential source of social monitoring difficulties which is often observed as part of the sequelae following a CHI.
Resumo:
Research implies that there ~ay be an association between attitudes toward margil1alized human outgroups and non-human animals. Very few studies, however, have specifically tested this relation empirically. The general purpose of the present research was to determine if such a relation exists and if perceptions of human-animal similarity avail as a common predictor of both types of attitudes. Ideological orientations associated with prejudiced attitudes (Social Dominance Orientation, Right-Wing Authoritarianism, and Universal Orientation) were also examined as individual differences in predicting perceptions of human-animal similarity. As predicted, people who endorsed prejudiced attitudes toward human outgroups (Study 1) and immigrants in particular (Studies 2 and 3), were more likely to endorse prejudiced attitudes toward non-human animals. In Study 2, perceptions that humans are superior (versus similar) to other animals directly predicted higher levels of prejudice toward non-human animals, whereas the effect of human superiority beliefs on immigrant prejudice was mediated by dehumanization. In other words, greater perceptions of humans as superior (versus similar) to other animals "allowed for" greater dehumanization of immigrants, which in turn resulted in heightened immigrant prejudice. Furthermore, people higher in Social Dominance Orientation or Right-Wing Authoritarianism were particularly likely to perceive humans as superior (versus similar) to other animals, whereas people characterized by a greater Universal Orientation were more likely to perceive humans and non-human animals as similar. Study 3 examined whether inducing perceptions of human-animal similarity through experimental manipulation would lead to more favourable attitudes toward non-human animals and immigrants. Participants were randomly assigned to read one of four 11 editorials designed to highlight either the similarities or differences between humans and other animals (i.e., animals are similar to humans; humans are similar to animals;~~nimals are inferior to humans; humans are superior to animals) or to a neutral control condition. Encouragingly, when animals were described as similar to humans, prejudice towards non-human animals and immigrants was significantly lower, and to some extent this finding was also true for people naturally high in prejudice (i.e., high in Social Dominance Orientation or Right-Wing Authoritarianism). Inducing perceptions that nonhuman animals are similar to humans was particularly effective at reducing the tendency to dehumanize immigrants ("re-humanization"), lowering feelings of personal threat regarding one's animal-nature, and at increasing inclusive intergroup representations and empathy, all of which uniquely accounted for the significant decreases in prejudiced attitudes. Implications for research, theory and prejudice interventions are considered.
Resumo:
The initial timing of face-specific effects in event-related potentials (ERPs) is a point of contention in face processing research. Although effects during the time of the N170 are robust in the literature, inconsistent effects during the time of the P100 challenge the interpretation of the N170 as being the initial face-specific ERP effect. The interpretation of the early P100 effects are often attributed to low-level differences between face stimuli and a host of other image categories. Research using sophisticated controls for low-level stimulus characteristics (Rousselet, Husk, Bennett, & Sekuler, 2008) report robust face effects starting at around 130 ms following stimulus onset. The present study examines the independent components (ICs) of the P100 and N170 complex in the context of a minimally controlled low-level stimulus set and a clear P100 effect for faces versus houses at the scalp. Results indicate that four ICs account for the ERPs to faces and houses in the first 200ms following stimulus onset. The IC that accounts for the majority of the scalp N170 (icNla) begins dissociating stimulus conditions at approximately 130 ms, closely replicating the scalp results of Rousselet et al. (2008). The scalp effects at the time of the P100 are accounted for by two constituent ICs (icP1a and icP1b). The IC that projects the greatest voltage at the scalp during the P100 (icP1a) shows a face-minus-house effect over the period of the P100 that is less robust than the N 170 effect of icN 1 a when measured as the average of single subject differential activation robustness. The second constituent process of the P100 (icP1b), although projecting a smaller voltage to the scalp than icP1a, shows a more robust effect for the face-minus-house contrast starting prior to 100 ms following stimulus onset. Further, the effect expressed by icP1 b takes the form of a larger negative projection to medial occipital sites for houses over faces partially canceling the larger projection of icP1a, thereby enhancing the face positivity at this time. These findings have three main implications for ERP research on face processing: First, the ICs that constitute the face-minus-house P100 effect are independent from the ICs that constitute the N170 effect. This suggests that the P100 effect and the N170 effect are anatomically independent. Second, the timing of the N170 effect can be recovered from scalp ERPs that have spatio-temporally overlapping effects possibly associated with low-level stimulus characteristics. This unmixing of the EEG signals may reduce the need for highly constrained stimulus sets, a characteristic that is not always desirable for a topic that is highly coupled to ecological validity. Third, by unmixing the constituent processes of the EEG signals new analysis strategies are made available. In particular the exploration of the relationship between cortical processes over the period of the P100 and N170 ERP complex (and beyond) may provide previously unaccessible answers to questions such as: Is the face effect a special relationship between low-level and high-level processes along the visual stream?
Resumo:
The focus is on design, more specifically, "animal handling facilities which are labor saving and reduce bruise losses". The article studies: Unloading Chutes, Stockyard Design, Hog Plant Stockyard, General Purpose Small Stockyard, Beef Stockyard, Cattle Crowding Pens, Hog Crowding Pens, Slopes in Chutes and Crowding Pens, Single File Chutes General Recommendations, Single File Chutes for Cattle, Slaughter Restrainers,
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Ce mémoire s'emploie à étudier les corps quadratiques réels ainsi qu'un élément particulier de tels corps quadratiques réels : l'unité fondamentale. Pour ce faire, le mémoire commence par présenter le plus clairement possible les connaissances sur différents sujets qui sont essentiels à la compréhension des calculs et des résultats de ma recherche. On introduit d'abord les corps quadratiques ainsi que l'anneau de ses entiers algébriques et on décrit ses unités. On parle ensuite des fractions continues puisqu'elles se retrouvent dans un algorithme de calcul de l'unité fondamentale. On traite ensuite des formes binaires quadratiques et de la formule du nombre de classes de Dirichlet, laquelle fait intervenir l'unité fondamentale en fonction d'autres variables. Une fois cette tâche accomplie, on présente nos calculs et nos résultats. Notre recherche concerne la répartition des unités fondamentales des corps quadratiques réels, la répartition des unités des corps quadratiques réels et les moments du logarithme de l'unité fondamentale. (Le logarithme de l'unité fondamentale est appelé le régulateur.)
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes
Resumo:
Cette thèse de doctorat a été réalisée en cotutelle internationale entre l'Université de Montréal (Canada) et l'Université Sorbonne Nouvelle Paris 3 (France).
Resumo:
Le 1,1'-bi-2-naphtol ou Binol, présentant une chiralité axiale, est un ligand très utilisé en catalyse asymétrique. Au cours des vingt dernières années, le Binol a servi de synthon à l’élaboration de très nombreux ligands permettant la catalyse asymétrique de tous types de réactions, allant de l’hydrogénation, à l’alkylation, en passant par diverses réactions péricycliques. Le grand intérêt pour ce ligand vient de sa versatilité et des nombreuses possibilités de fonctionnalisation qu’il offre, permettant d’altérer ses propriétés catalytiques à volonté, aussi bien en modifiant son caractère électronique, qu’en introduisant des facteurs stériques autour du site catalytique. Parallèlement aux développements de la catalyse par des dérivés de Binol, le domaine des liquides ioniques a connu un intérêt croissant ces dernières années. Les liquides ioniques, sels dont le point de fusion est inférieur à 100°C, cumulent de nombreuses qualités convoitées : faible pression de vapeur, stabilité thermique et chimique et fort pouvoir de solvatation. Dû à ces propriétés, les liquides ioniques ont principalement été étudiés dans l’optique de développer une gamme de solvants recyclables. Alors que les propriétés des liquides ioniques sont facilement modulables en fonction de l’anion et du cation choisi, le concept de liquide ionique à tâche spécifique va plus loin et propose d’introduire directement, sur le cation ou l’anion, un groupement conférant une propriété particulière. En suivant cette approche, plusieurs ligands ioniques ont été rapportés, par simple couplage d’un cation organique à un ligand déjà connu. Étonnamment, le Binol a fait l’objet de très peu de travaux pour l’élaboration de ligands ioniques. Dans cette thèse, nous proposons l’étude d’une famille de composés de type Binol-imidazolium dont les unités Binol et imidazolium sont séparées par un espaceur méthylène. Différents homologues ont été synthétisés en variant le nombre d’unités imidazolium et leur position sur le noyau Binol, la longueur de la chaîne alkyle portée par les unités imidazolium et la nature du contre-anion. Après une étude des propriétés thermiques de ces composés, l’utilisation des Binol-imidazoliums en tant que ligands dans une réaction asymétrique d’éthylation d’aldéhydes aromatique a été étudiée en milieu liquide ionique. La réaction a été conduite en solvant liquide ionique dans le but de recycler aussi bien le ligand Binol-imidazolium que le solvant, en fin de réaction. Cette étude nous a permis de démontrer que la sélectivité de ces ligands ioniques dépend grandement de leur structure. En effet, seuls les Binols fonctionnalisés en positions 6 et 6’ permettent une sélectivité de la réaction d’éthylation. Alors que les dérivés de Binol fonctionnalisés en positions 3 et 3’ ne permettent pas une catalyse énantiosélective, il a déjà été rapporté que ces composés avaient la capacité de complexer des anions. D’autre part, il a déjà été rapporté par notre groupe, que les composés comportant des unités imidazolium pouvaient permettre le transport d’anions à travers des bicouches lipidiques en fonction de leur amphiphilie. Ceci nous a amenés à la deuxième partie de cette thèse qui porte sur les propriétés ionophores des Binols fonctionnalisés en positions 3 et 3’ par des unités imidazoliums. Dans un premier temps, nous nous sommes intéressés à l’étude de la relation structure-activité et au mécanisme de transport de ces composés. Le transport d’anions étant un processus clé dans la biologie cellulaire, l’activité biologique des composés présentant une activité ionophore dans des systèmes modèles (liposomes) a été étudiée par la suite. L’activité antibactérienne des nos composés a été testée sur quatre souches de bactéries. Il s’est avéré que les composés Binol-imidazolium sont actifs uniquement sur les bactéries Gram positives. Finalement, la cytotoxicité des composés présentant une activité antibactérienne a été étudiée sur des cellules humaines.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Ce mémoire consiste en une explication de la critique biblique de Spinoza contenue dans la Traité théologico-politique. Cette critique répond à un problème précis : la subversion de la religion en superstition. Cette critique, nous l’expliquons en quatre parties. La première partie consiste en une mise en situation problématique. Elle montre que le problème biblique, qui appelle une critique, est la subversion de la religion. On y montre aussi l’origine de la superstition et la manière dont elle subvertit la religion. La seconde partie consiste en une mise en contexte historique, où l’on montre la pertinence historique d’une telle critique. Nous voyons en effet que la critique biblique de Spinoza s’inscrit dans une période de controverses théologiques importante. La troisième partie expose la méthode d’interprétation des Écritures de Spinoza (méthode historico-critique) et cherche à éclaircir la notion de lumière naturelle, notion fondamentale de la dite méthode. Enfin, dans la quatrième partie, nous exposons la critique spinoziste des autres méthodes interprétatives, jugées erronées par ce dernier, soient les méthodes surnaturelle, sceptique et dogmatique. Nous le verrons, la critique biblique, qui se rapporte à une question très précise, a une finalité plus générale. En effet, la critique biblique est inséparable du but que se donne Spinoza dans le Traité théologico-politique, soit défendre la liberté de penser et de dire ce que l’on pense. En fait, la critique biblique est un moyen pour réaliser ce but.
Resumo:
En chirurgie vasculaire, l’accès à l’artère fémorale, qu’il soit par une incision chirurgicale ou par une approche percutanée, est très fréquemment utilisé pour une multitude d’interventions vasculaires ou endovasculaires; pour des pontages divers, le traitement d’occlusions artérielles, la réparation d’anévrismes et la pose d’endoprothèses. L’objectif général de ce projet de recherche est de faciliter et réduire les risques des approches de l’artère fémorale par une meilleure compréhension anatomique du triangle fémoral. La méthodologie a été réalisée grâce à l’utilisation de cadavres spécialement embaumés par la méthode développée par Walter Thiel. Les résultats présentés dans ce mémoire ont permis de proposer des solutions en réponse à des problèmes cliniques en chirurgie vasculaire. Dans un premier temps, l’étude de la vascularisation cutanée du triangle fémoral a mené à proposer de nouvelles incisions chirurgicales afin de limiter la dévascularisation cutanée des plaies et ainsi réduire les problèmes de cicatrisation observés. Ensuite, nous avons validé l’identification radiographique et échographique de l’artère fémorale à son croisement avec le ligament inguinal afin de faciliter l’identification d’un site de ponction artérielle adéquat. Enfin, nous avons développé une méthode échographique simple qui facilite l’approche percutanée de l’artère fémorale, même chez les patients obèses. Les retombées de ce projet de recherche sont multiples pour les cliniciens, l’étude fournit une meilleure compréhension anatomique tridimensionnelle du triangle fémoral et les techniques proposées dans ce mémoire pourront apporter une amélioration de la pratique chirurgicale et faciliter le travail des médecins. Toutefois, ces propositions devront maintenant être validées en clinique.
Resumo:
The quality of minced fish, as mentioned earlier depends largely on the type and quality of the raw material used, as well as on the processing methods employed. Moreover, fish mincing involves cutting up of tissues thereby increasing surface area to a great extent and releasing of enzymes and nutrients from the tissues. Due to these factors fish mince is relatively more prone to chemical. autolytic and microbial spoilage. Hence study of minced fish with these factors in focus is very important. Equally important is the availability, price and preference of the raw material vis-a-vis the end products and the storage period it passes through. In the present study. changes in the bacterial flora. both quantitative and qualitative of the dressed fish, viz. Nemipterus japonicas and mince from the same fish during freezing and frozen storage have been investigated in detail. The effect of a preservative. viz. . EZDTA on the bacteriological and shelf life characteristics of the minced fish has also been investigated. Attempts have also been made to develop various types of products from mince and to study their storage life.