677 resultados para Puzzles Geométricos
Resumo:
O objetivo do presente trabalho foi estimar a biomassa e o comprimento de raízes finas (< 2 mm de diâmetro), em diferentes profundidades do solo, para a espécieEucalyptus urophylla S.T. Blake, com 10 anos de idade. O estudo foi realizado no município de Santa Maria-RS, no campus da Universidade Federal de Santa Maria. O talhão plantado com eucalipto tem 27 m de comprimento por 14 m de largura, em espaçamento 3 x 2 m. Foram amostrados quatro monolitos de 25 x 25 x 60 cm. Os monolitos foram divididos em seis perfis geométricos, nas profundidades de 0-10, 10-20, 20-30, 30-40, 40-50, 50-60 cm. A separação das raízes do solo foi por meio de um conjunto de duas peneiras (2 e 1 mm de malha) e jatos d'água. Na determinação do comprimento de raízes foi utilizado o método de intersecção, produzindo fotos com o uso de scanner. Os resultados revelaram alta concentração das raízes finas nos primeiros 20 cm de solo. A biomassa total de raízes finas encontradas para o Eucalyptus urophylla foi de 1.451,6 kg/ha, devendo ser ressaltado que 57,9% estavam concentradas nos primeiros 20 cm de solo. Constatou-se que o comprimento total de raízes finas foi de 27.968,9 km/ha e que 64,3% destes estavam nos primeiros 20 cm de profundidade.
Resumo:
Within the last few decades, the videogame has become an important media, economic, and cultural phenomenon. Along with the phenomenon’s proliferation the aspects that constitute its identity have become more and more challenging to determine, however. The persistent surfacing of novel ludic forms continues to expand the conceptual range of ‘games’ and ‘videogames,’ which has already lead to anxious generalizations within academic as well as popular discourses. Such generalizations make it increasingly difficult to comprehend how the instances of this phenomenon actually work, which in turn generates pragmatic problems: the lack of an applicable identification of the videogame hinders its study, play, and everyday conceptualization. To counteract these problems this dissertation establishes a geneontological research methodology that enables the identification of the videogame in relation to its cultural surroundings. Videogames are theorized as ‘games,’ ‘puzzles,’ ‘stories,’ and ‘aesthetic artifacts’ (or ‘artworks’), which produces a geneontological sequence of the videogame as a singular species of culture, Artefactum ludus ludus, or ludom for short. According to this sequence, the videogame’s position as a ‘game’ in the historicized evolution of culture is mainly metaphorical, while at the same time its artifactuality, dynamic system structure, time-critical strategic input requirements and aporetically rhematic aesthetics allow it to be discovered as a conceptually stable but empirically transient uniexistential phenomenon that currently thrivesbut may soon die out.
Resumo:
This thesis investigates the matter of race in the context of Finnish language acquisition among adult migrants in Finland. Here matter denotes both the materiality of race and how race comes to matter. Drawing primarily on an auto/ethno/graphic account of learning the Finnish language as a participant in the Finnish for foreigners classes, this thesis problematises the ontology and epistemology of race, i.e., what race is, how it is known, and what an engagement with race entails. Taking cues from the bodily practices of learning the Finnish trill or the rolling r, this study proposes a notion of “trilling race” and argues for an onto-epistemological dis/continuity that marks race’s arrival. The notion of dis/continuity reworks the distinction between continuity and discontinuity, and asks about the how of the arrival of any identity, the where, and the when. In so doing, an analysis of “trilling race” engages with one of the major problematics that has exercised much critical attention, namely: how to read race differently. That is, to rethink the conundrum of the need to counter “representational weight” (Puar 2007, 191) of race on the one hand, and to account for the racialised lived realities on the other. The link between a study of the phenomenon of host country language acquisition and an examination of the question of race is not as obvious as it might seem. For example, what does the argument that the process of language learning is racialised actually imply? Does it mean that race, as a process of racialisation or an ongoing configuration of sets of power relations, exerts force from an outside on the otherwise neutral process of learning the host country language? Or does it mean that race, as an identity category, presents as among the analytical perspectives, along with gender and class for instance, of the phenomenon of host country language acquisition? With these questions in mind, and to foreground the examination of the question of race in the context of Finnish language acquisition among adult migrants, this thesis opens with a discussion of the art installation Finnexia by Lisa Erdman. Finnexia is a fictitious drug said to facilitate Finnish language learning through accelerating the cognitive learning process and reducing the anxiety of speaking the Finnish language. Not only does the Finnexia installation make visible the ways in which the lack of skill in Finnish is fgured as the threshold – a border that separates the inside from the outside – to integration, but also, and importantly, it raises questions about the nature of difference, and the process of differentiation that separates the individual from the social, fact from fiction, nature from culture. These puzzles animate much of the analysis in this dissertation. These concerns continue to be addressed in the rest of part one. Whereas chapter two offers a reconsideration of the ambiguities of ethnisme/ethnicity and race, chapter three dilates on the methodological implications of a conception of the dis/continuity of race. Part two focuses on the matter of race and examines the political economy of visual-aural encounters, whereas part three shifts the focus and rethinks the possibilities and limitations of transforming racialised and normative constraints. Taking up these particular problematics, this thesis as a whole argues that race trills itself: its identity/difference is simultaneously made possible and impossible.
Resumo:
INTRODUÇÃO: A microalbuminúria (MA) e redução da filtração glomerular (FG) podem associar-se às complicações cardíacas da hipertensão arterial (HA), podendo levar a alterações na estrutura, função e geometria do ventrículo esquerdo (VE). OBJETIVOS: Associar alterações da MA e FG com parâmetros do ventrículo esquerdo analisados ao ecodopplercardiograma. Métodos: Realizou-se estudo transversal no período de fevereiro a julho de 2010 com 220 hipertensos tratados em duas unidades de saúde em São Luís. Foram incluídos pacientes > 18 anos de ambos os sexos. Avaliaram-se dados sociodemográficos, FG e MA em urina de 24 horas, bioquímica, os padrões ecodopplercardiográficos funcionais e geométricos do ventrículo esquerdo. Os pacientes foram agrupados segundo a presença de MA e a taxa de FG. RESULTADOS: O grupo HA com MA apresentou aumento da espessura do VE e índice de massa indexado à superfície corporal (IMSC) e espessura relativa da parede (ERP), menores ondas E' lateral e septal, e maior relação E/e' média (p < 0,05). O grupo HA com FG < 60 mL/min/1,73 m² apresentou maiores espessuras, índices de massa e menores relações E/A, menores ondas E' lateral e septal, e maior relação E/e' média (p < 0,05). O padrão geométrico hipertrofia concêntrica (HVE) apresentou relação com MA (p = 0,002). CONCLUSÕES: A MA apresentou associação significativa com o aumento das espessuras das paredes do VE e do índice de massa e alterações na função diastólica. Também esteve associada à HVE. A FG apresentou associação significativa com o aumento dos índices de espessuras e massa, e também indicou alterações na função diastólica.
Resumo:
This paper criticizes the conventional theory of choice for being grounded on a minimal set of rationality axioms. We claim that this theory does not take due account of the fact that agents are driven by motives other than the pursuit of material self-interest. Our departure point is logic of commitments and planned action, which helps us to identify some puzzles in the conventional theory of choice. As a way out, we discuss the Kantian perspective and the notions of metapreference and metaranking. We then build a model of choice which points to the possibility of a systematic treatment of higher order preferences and incommensurable objectives.
Resumo:
Purple bronze Li0.9Mo6O17 has attracted researchers for its low dimensionality and corresponding properties. Although it has been studied for nearly two decades, there are still some unsolved puzzles with this unique material. Single crystals of Li0.9Mo6O17 were grown using the temperature gradient flux technique in this research. The crystal growth was optimized by experimenting different conditions and good quality crystals were obtained. X-ray diffraction results have confirmed the right phase of the crystals. Resistivity measurements and magnetic susceptibility measurements were carried out, and anomalous electronic behaviors were found. All of the samples showed the metal-insulator transition near 20K, followed by behavior that differs from sample to sample: either superconducting, metallic or insulating behavior was observed below 2K. Li0.9Mo6O17 was considered as a quasi-one-dimensional crystal and also a superconducting crystal, which implies a dimensional crossover may occur at the metal-insulator transition. A two-band scenario of the Luttinger liquid model was used to fit the resistivity data and excellent results were achieved, suggesting that the Luttinger theory is a very good candidate for the explanation of the anomalous behavior of Li0.9Mo6O17. In addition, the susceptibility measurements showed Curie paramagnetism and some temperature independent paramagnetism at low temperature. The absence of any anomalous magnetic feature near 20K where the resistivity upturn takes place, suggests that a charge density wave mechanism, which has been proposed by some researchers, is not responsible for the unique properties of Li0.9Mo6O17.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2).
Resumo:
Le but de ce mémoire est d’expliciter en détail et de voir la portée d'un passage bien précis du traité des Topiques, ouvrage où Aristote tente d'élaborer une méthode qui permettra de raisonner de manière dialectique. Dans le deuxième chapitre du premier livre (I, 2), il énonce de manière succincte trois utilités que le traité en question peut procurer à celui qui possède et maîtrise adéquatement cette méthode. En premier lieu, la dialectique servirait de gymnastique intellectuelle pour former l'esprit et lui donner plus de souplesse dans ses raisonnements. Dans un second temps, elle serait utile dans les rencontres de tous les jours avec autrui parce qu’elle permettrait de discuter et d'argumenter sur un sujet donné avec le premier venu. Enfin, il semble également que la dialectique soit utile pour les «connaissances de caractère philosophique», en ce sens qu'elle permettrait de développer les apories et ultimement, d'établir les principes ou les notions premières de chaque science. Dans ce travail, je me propose donc d’examiner chacune de ces prétendues utilités afin de voir comment, et dans quelle mesure, nous pouvons réellement affirmer que la dialectique s’avère profitable pour chacun des services énumérés en Topiques I, 2.
Resumo:
La civilisation de l’Indus marque les esprits par une apparente uniformité de la culture matérielle sur la totalité de son territoire (environ 1 million de km carré) durant sa période d’apogée (2600-1900 av. J.-C.). Cette étude cherche à tester deux hypothèses qui pourraient expliquer cette homogénéité : 1) Un pouvoir centralisateur contrôlant la production artisanale; et 2) Un vaste réseau d’échanges et de distribution de la production. Dans ce but, la grande majorité des publications accessibles portant sur la production artisanale d’objets en céramique, en pierres semi-précieuses, en coquillage et en métal ont été inventoriées et analysées. Axée sur la spécialisation du travail artisanal, l’étude a identifié quelques objets dits de prestige (perles classiques harappéennes, bracelets en grès cérame) très probablement liés à une élite. La nature de cette élite est ensuite examinée et un nouveau modèle d’organisation sociopolitique de cette civilisation est proposé.
Resumo:
El CD tiene por objeto la concienciación educativa en la recogida selectiva de basuras, el cuidado de la ciudad y del medio ambiente. Está dirigido a niños de edades comprendidas entre los 10 y los 12 años e incluye una serie de lecturas y de juegos entre los que están: puzzles, caza basuras, roba nasuras, limpia ciudad, etc. Además de estos juegos se puede acceder aun libro que va presentando información y fotografías. Las páginas del mismo van cambiando y creciendo conforme se van superando las actividades de las distintas estancias.
Resumo:
The central thesis of this report is that human language is NP-complete. That is, the process of comprehending and producing utterances is bounded above by the class NP, and below by NP-hardness. This constructive complexity thesis has two empirical consequences. The first is to predict that a linguistic theory outside NP is unnaturally powerful. The second is to predict that a linguistic theory easier than NP-hard is descriptively inadequate. To prove the lower bound, I show that the following three subproblems of language comprehension are all NP-hard: decide whether a given sound is possible sound of a given language; disambiguate a sequence of words; and compute the antecedents of pronouns. The proofs are based directly on the empirical facts of the language user's knowledge, under an appropriate idealization. Therefore, they are invariant across linguistic theories. (For this reason, no knowledge of linguistic theory is needed to understand the proofs, only knowledge of English.) To illustrate the usefulness of the upper bound, I show that two widely-accepted analyses of the language user's knowledge (of syntactic ellipsis and phonological dependencies) lead to complexity outside of NP (PSPACE-hard and Undecidable, respectively). Next, guided by the complexity proofs, I construct alternate linguisitic analyses that are strictly superior on descriptive grounds, as well as being less complex computationally (in NP). The report also presents a new framework for linguistic theorizing, that resolves important puzzles in generative linguistics, and guides the mathematical investigation of human language.
Resumo:
When discussing the traditional and new missions of higher education (1996 Report to UNESCO of the International Commission on Education for the 21st Century) Jacques Delors stated that "Excessive attraction to social sciences has broken equilibrium of available graduates for workforce, thus causing doubts of graduates and employers on the quality of knowledge provided by higher education". Likewise, when discussing the progress of science and technology, the 1998 UNESCO World Conference on Higher Education concluded that "Another challenge concerts the latest advancements of Science, the sine qua non of sustainable development"; and that “with Information Technology, the unavoidable invasion of virtual reality has increased the distance between industrial and developing countries". Recreational Science has a long tradition all over the Educational World; it aims to show the basic aspects of Science, aims to entertain, and aims to induce thinking. Until a few years ago, this field of knowledge consisted of a few books, a few kits and other classical (yet innovative) ways to popularize the knowledge of Nature and the laws governing it. In Spain, the interest for recreational science has increased in the last years. First, new recreational books are being published and found in bookstores. Second the number of Science-related museums and exhibits is increasing. And third, new television shows are produced and new short science-based, superficial sketches are found in variety programs. However, actual programs in Spanish television dealing seriously with Science are scarce. Recreational Science, especially that related to physical phenomena like light or motion, is generally found at Science Museums because special equipment is required. On the contrary, Science related mathematics, quizzes and puzzles use to gather into books, e.g. the extensive collections by Martin Gardner. However, lately Science podcasts have entered the field of science communication. Not only traditional science journals and television channels are providing audio and video podcasts, but new websites deal exclusively with science podcasts, in particular on Recreational Science. In this communication we discuss the above mentioned trends and show our experience in the last two years in participating at Science Fairs and university-sponsored events to attract students to science and technology careers. We show a combination of real examples (e.g., mathemagic), imagination, use of information technology, and use of social networks. We present as well an experience on designing a computational, interactive tool to promote chemistry among high school, prospective students using computers ("Dancing with Bionanomolecules"). Like the concepts related to Web 2.0, it has been already proposed that a new framework for communication of science is emerging, i.e., Science Communication 2.0, where people and institutions develop new innovative ways to explain science topics to diverse publics – and where Recreational Science is likely to play a leading role
Resumo:
Resumen basado en la publicación
Resumo:
Resumen basado en la publicación