906 resultados para Returns to scale
Resumo:
From a narratological perspective, this paper aims to address the theoretical issues concerning the functioning of the so called «narrative bifurcation» in data presentation and information retrieval. Its use in cyberspace calls for a reassessment as a storytelling device. Films have shown its fundamental role for the creation of suspense. Interactive fiction and games have unveiled the possibility of plots with multiple choices, giving continuity to cinema split-screen experiences. Using practical examples, this paper will show how this storytelling tool returns to its primitive form and ends up by conditioning cloud computing interface design.
Resumo:
Inserido no âmbito do Projecto “Terminologia da Administração Pública – TERMAP”, o presente trabalho constitui uma análise descritiva de elementos discursivos que nos permitem dar conta da terminologia produzida na Direcção Nacional de Desenvolvimento Tecnológico e Inovação, do Ministério da Ciência e Tecnologia. Temos como objectivo a organização da terminologia da área, tendo em vista a fixação dos termos, permitindo assim uma melhor comunicação e transferência de conhecimento, quer a nível intra-institucional quer a nível interinstitucional, bem como a nível externo. Neste trabalho, partimos de uma abordagem semasiológica, e procuramos sempre ter em foco as especificidades discursivas, não pondo de parte, quando necessário, uma perspectiva mais onomasiológica. A abordagem proposta desenvolve-se em torno de cinco capítulos: a) o primeiro traz em revisão aspectos da organização e funcionamento da Administração Pública Central em Angola, na qual se insere o domínio de análise; b) o segundo consiste na análise dos aspectos relativos à constituição do corpus textual; c) os pressupostos teóricos apresentados no terceiro capítulo dizem respeito à formação dos termos complexos e aos fenómenos de variação em terminologia; d) no quarto capítulo, a análise volta ao corpus textual, mais propriamente ao seu tratamento. Neste capítulo apresentam-se os processos relativos à extracção e selecção dos candidatos a termos, e o levantamento dos casos de variação; e) o quinto capítulo é reservado à apresentação e análise dos dados. Fazemos uma proposta de um modelo de base de dados terminológica multilingue. Esta proposta surge na sequência da necessidade de fixar os termos, com vista à transferência de conhecimento.
Resumo:
Teräksenvalmistajilta edellytetään jatkuvasti panostusta laadun ja laadunvarmistuksen kehittämiseen. Teräksen laatu ja puhtaus korostuvat varsinkin silloin, kun terästä käytetään vaativiin käyttökohteisiin, kuten autoteollisuuden tarpeisiin. Ultraäänitarkastusmenetelmää käytetään laadun-varmistuksessa teräksen sisävikojen etsimiseen. Ultraäänitarkastuksessa lähetetään suuritaajuuksista ääntä kappaleeseen. Ääni etenee materiaalissa ja heijastuu erilaisista epäjatkuvuuskohdista. Luotaimeen palaavaa ääntä analysoimalla saadaan tietoa teräksestä ja sen sisävioista. Ultraäänitarkastuksen ongelmana on vian tyypin määrittäminen hankaluus sekä herkkyys tutkittavan materiaalin aineominaisuuksille. Työn tavoitteena oli immersioultraäänitarkastuksen kehittäminen sovellettuna teräksenvalmistajan tarpeisiin. Materiaalin aineominaisuuksista tutkittiin seostuksen vaikutusta. Teräslajit tarkastettiin valssitilaisena, karkaistuna ja normalisoituna. Lisäksi tutkittiin kappaleen pinnankarheuden ja -muodon vaikutusta tarkastukseen. Vikatyyppien tunnistamisen mahdollisuuksia ultra-äänitarkastuksessa selvitettiin käyttäen FFT- taajuusanalyysiä. Erilailla lämpökäsitellyillä teräslajeilla näytti eniten tuloksiin vaikuttavan terästen raekoko. Valssitilaisilla teräksillä raekoko on suuri, jolloin ultraääni vaimenee voimakkaasti teräksessä. Huomattavaa kuitenkin oli, että mikäli lämpö-käsittelyillä ei teräksen raekokoa saada juuri pienennettyä, ei myöskään vaimeneminen vähene. Tämän vuoksi lämpökäsittely ei välttämättä ole aina tarpeellinen valmisteltaessa ultraääninäytteitä. Fourier’n taajuusanalyysissä huomattiin olevan eroavaisuuksia verrattaessa huokosista ja sulkeumista palaavien kaikujen taajuusspektrejä. Näiden tulosten perusteella näyttäisi olevan mahdollista käyttää FFT- menetelmää ultraääni-tarkastuksessa vikojen luokitteluun.
Resumo:
The influence of peak-dose drug-induced dyskinesia (DID) on manual tracking (MT) was examined in 10 dyskinetic patients (OPO), and compared to 10 age/gendermatched non-dyskinetic patients (NDPD) and 10 healthy controls. Whole body movement (WBM) and MT were recorded with a 6-degrees of freedom magnetic motion tracker and forearm rotation sensors, respectively. Subjects were asked to match the length of a computer-generated line with a line controlled via wrist rotation. Results show that OPO patients had greater WBM displacement and velocity than other groups. All groups displayed increased WBM from rest to MT, but only DPD and NDPO patients demonstrated a significant increase in WBM displacement and velocity. In addition, OPO patients exhibited excessive increase in WBM suggesting overflow DID. When two distinct target pace segments were examined (FAST/SLOW), all groups had slight increases in WBM displacement and velocity from SLOW to FAST, but only OPO patients showed significantly increased WBM displacement and velocity from SLOW to FAST. Therefore, it can be suggested that overflow DID was further increased with increased task speed. OPO patients also showed significantly greater ERROR matching target velocity, but no significant difference in ERROR in displacement, indicating that significantly greater WBM displacement in the OPO group did not have a direct influence on tracking performance. Individual target and performance traces demonstrated this relatively good tracking performance with the exception of distinct deviations from the target trace that occurred suddenly, followed by quick returns to the target coherent in time with increased performance velocity. In addition, performance hand velocity was not correlated with WBM velocity in DPO patients, suggesting that increased ERROR in velocity was not a direct result of WBM velocity. In conclusion, we propose that over-excitation of motor cortical areas, reported to be present in DPO patients, resulted in overflow DID during voluntary movement. Furthermore, we propose that the increased ERROR in velocity was the result of hypermetric voluntary movements also originating from the over-excitation of motor cortical areas.
Resumo:
There is currently a disconnect between the universal and general children's rights as presented in the United Nation's Convention on the Rights of the Child and the lived experiences of children in various countries. This thesis uses the authors' struggle to exist between two cultures as a lens through which the disconnect is explored. The author returns to her village in Punjab and looks at spaces created for children through institutions such as the education system and spaces that children create on their own. Luhmann's social systems theory is used to critique anti-humanist institutions and systems. As an alternative to Luhmann, H~dt and Negri's concept of the multitude is explored to provide insight into the political spaces that children create for themselves.
Resumo:
This daily paper, except Sundays, began publication on August 17, 1813 and ceased April 30, 1817. It was also published tri-weekly for a "COUNTRY" edition. The paper later became the Baltimore Patriot. Topics of interest include: Page 1: announcement Capt. M. Simmones Burnbury is seeking men to form a company of Sea Fencibles; Page 2: U.S. Legislature authorizes bill to increase the Marine Corps; U.S. Legislature authorizes bill to purchase vessels captured on Lake Erie; U.S. Senate bill authorizes the appointment of officers for the flotilla service; President of United States authorized to accept service of volunteer corps for defence of United States; Letter from Capt. A. H. Holmes to Lieut. Col. Butler detailing an American victory over the British near Detroit; announcement of British forces building barges for the purpose of attacking Detroit; War sloop Erie returns to Baltimore unable to reach sea due to British forces in the Chesapeake; Page 3: Death notice of Mr. Ward Fairchild of the U.S. Army; Page 4: Commander of the U.S. Flotilla seeks men for the Chesapeake Flotilla.
Resumo:
As the complexity of evolutionary design problems grow, so too must the quality of solutions scale to that complexity. In this research, we develop a genetic programming system with individuals encoded as tree-based generative representations to address scalability. This system is capable of multi-objective evaluation using a ranked sum scoring strategy. We examine Hornby's features and measures of modularity, reuse and hierarchy in evolutionary design problems. Experiments are carried out, using the system to generate three-dimensional forms, and analyses of feature characteristics such as modularity, reuse and hierarchy were performed. This work expands on that of Hornby's, by examining a new and more difficult problem domain. The results from these experiments show that individuals encoded with those three features performed best overall. It is also seen, that the measures of complexity conform to the results of Hornby. Moving forward with only this best performing encoding, the system was applied to the generation of three-dimensional external building architecture. One objective considered was passive solar performance, in which the system was challenged with generating forms that optimize exposure to the Sun. The results from these and other experiments satisfied the requirements. The system was shown to scale well to the architectural problems studied.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.
Resumo:
Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.
Resumo:
Le système cardiovasculaire est composé d'un cœur qui pompe régulièrement le sang à travers des artères afin d'alimenter tous les tissus corporels en oxygène et nutriments qui leur sont nécessaires. Une caractéristique particulière de ce système est son aspect fermé, où le sang fait un cycle constant commençant par le ventricule gauche, allant vers tous les tissus corporels, revenant vers le cœur et le ventricule droit, étant propulsé vers la circulation pulmonaire en retournant au ventricule gauche. L'insuffisance cardiaque est alors une incapacité du cœur à effectuer sa tâche de pomper le sang efficacement. Une série d'ajustements sont alors enclenchés pour rétablir un débit sanguin adéquat; cette réponse systémique est principalement menée par le système rénine-angiotensine-aldostérone ainsi que par le système adrénergique. À court terme, le flot sanguin est rétabli et le métabolisme corporel continue comme si rien n'était, de telle sorte que, souvent ce stade passe inaperçu et les individus qui en sont affectés sont asymptomatiques. Cependant, le cœur doit alors fournir un effort constant supérieur et si la cause n'est pas résolue, la condition cardiaque se dégradera encore plus. Si tel est le cas, pour s'ajuster à cette nouvelle réalité, le cœur, comme tout muscle, deviendra plus massif et changera de conformation afin de répondre à sa nouvelle charge de travail. Cette transformation cardiaque est communément connue sous le terme de remodelage. Par contre, le remodelage cardiaque est délétère à long terme et entrave encore plus le cœur à bien effectuer sa tâche. Au fur et à mesure que la fonction cardiaque décline, les systèmes compensatoires persistent et s'intensifient; il y a alors établissement d'un cercle vicieux destructeur qui ne peut être renversé que par une transplantation cardiaque. Entre temps, des thérapies inhibant le système rénine-angiotensine-aldostérone et le système adrénergique se sont avérés très efficaces pour prolonger la survie, diminuer la mortalité, réduire les hospitalisations ainsi que soulager la symptomatologie associée à l'insuffisance cardiaque. Par contre, ces régimes thérapeutiques ne semblent pas induire une réponse positive chez tous les patients, de sorte que certains n'en retirent pas de bénéfices tangibles, tandis que d'autres éprouvent plusieurs difficultés à les tolérer. Suite à des analyses rétrospectives, surtout en comparant la réponse thérapeutique entre des populations de diverses ethnies, les variations génétiques, particulièrement les polymorphismes ayant le potentiel de moduler le mécanisme d'action de la pharmacothérapie, furent proposés comme responsables de cette variabilité dans la réponse aux médicaments. Certains ont aussi proposé que certains polymorphismes pourraient être considérés comme des facteurs de risque prédisposant à l'insuffisance cardiaque ou coupables de moduler sa progression en tant que facteurs aggravants ou atténuants. Avec de telles hypothèses proposées, plusieurs associations génétiques furent étudiées en commençant par des gènes directement impliqués dans la pathogénèse de cette maladie. Dans le cadre de cette thèse, nous allons revoir les diverses données disponibles dans la littérature au sujet de l'influence que peuvent avoir les divers polymorphismes impliqués dans la prédisposition, la progression et la pharmacogénétique de l'insuffisance cardiaque.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Doctorat réalisé en cotutelle avec l'Université Paris Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Mon projet de thèse démontre le rôle essentiel que tient la mélancolie dans les comédies de Shakespeare. J’analyse sa présence au travers de multiples pièces, des farces initiales, en passant par les comédies romantiques, jusqu’aux tragicomédies qui ponctuent les dernières années de sa carrière. Je dénote ainsi sa métamorphose au sein du genre comique, passant d’une représentation individuelle se rapportant à la théorie des humeurs, à un spectre émotionnel se greffant aux structures théâtrales dans lesquelles il évolue. Je suggère que cette progression s’apparent au cycle de joie et de tristesse qui forme la façon par laquelle Shakespeare dépeint l’émotion sur scène. Ma thèse délaisse donc les théories sur la mélancolie se rapportant aux humeurs et à la psychanalyse, afin de repositionner celle-ci dans un créneau shakespearien, comique, et historique, où le mot « mélancolie » évoque maintes définitions sur un plan social, scientifique, et surtout théâtrale. Suite à un bref aperçu de sa prévalence en Angleterre durant la Renaissance lors de mon introduction, les chapitres suivants démontrent la surabondance de mélancolie dans les comédies de Shakespeare. A priori, j’explore les façons par lesquelles elle est développée au travers de La Comedie des Erreurs et Peines d’Amour Perdues. Les efforts infructueux des deux pièces à se débarrasser de leur mélancolie par l’entremise de couplage hétérosexuels indique le malaise que celle-ci transmet au style comique de Shakespere et ce, dès ces premiers efforts de la sorte. Le troisième chapitre soutient que Beaucoup de Bruit pour Rien et Le Marchand de Venise offrent des exemples parangons du phénomène par lequel des personnages mélancoliques refusent de tempérer leurs comportements afin de se joindre aux célébrations qui clouent chaque pièce. La mélancolie que l’on retrouve ici génère une ambiguïté émotionnelle qui complique sa présence au sein du genre comique. Le chapitre suivant identifie Comme il vous plaira et La Nuit des Rois comme l’apogée du traitement comique de la mélancolie entrepris par Shakespeare. Je suggère que ces pièces démontrent l’instant où les caractérisations corporelles de la mélancolie ne sont plus de mise pour le style dramatique vers lequel Shakespeare se tourne progressivement. Le dernier chapitre analyse donc Périclès, prince de Tyr et Le Conte d’Hiver afin de démontrer que, dans la dernière phase de sa carrière théâtrale, Shakespeare a recours aux taxonomies comiques élucidées ultérieurement afin de créer une mélancolie spectrale qui s’attardent au-delà des pièces qu’elle hante. Cette caractérisation se rapporte aux principes de l’art impressionniste, puisqu’elle promeut l’abandon de la précision au niveau du texte pour favoriser les réponses émotionnelles que les pièces véhiculent. Finalement, ma conclusion démontre que Les Deux Nobles Cousins représente la culmination du développement de la mélancolie dans les comédies de Shakespeare, où l’incarnation spectrale du chapitre précèdent atteint son paroxysme. La nature collaborative de la pièce suggère également un certain rituel transitif entre la mélancolie dite Shakespearienne et celle développée par John Fletcher à l’intérieure de la même pièce.