414 resultados para Narrations classiques
Clasificación del formato tridimensional de materiales líticos desde una perspectiva geoarqueológica
Resumo:
Homenaje a Georges Laplace, realizado en Vitoria-Gasteiz el 13, 14 y 15 de noviembre de 2012. Edición a cargo de Aitor Calvo, Aitor Sánchez, Maite García-Rojas y Mónica Alonso-Eguíluz.
Resumo:
[EU]Azken urteetan argi geratu da gizakiak aurrera egiteko ezinbestekoa duela zehaztasuna. Teknologia berriak geroz eta bideratuagoak daude produktuen tamaina ahalik eta gehien murrizten edota produktu handien perdoiak nanometroetara hurbiltzeko ahaleginetan. Hau lortzeko bidean ezinbestekoa da elementu guztietan zehaztasuna limitera eramatea eta funtsean, honetan zentratuko da lan hau. Proiektu hau artikulazioen zehaztasuna hobetzeko tekniketan zentratuko da, gehiago zehaztuz, optika arloan lan egingo duen errobot baten artikulazioak analizatuko ditu. Artikulazioen zehaztasun optimoa lortzeko artikulazio hauek generazio berriko artikulazioak izatea pentsatu da, artikulazio flexible edo “flexible joints” izenekoak. Artikulazio hauek, orain artekoak ez bezala, ez dituzte bi elementu elkartuko, elementu bakarrez osatuta egongo dira eta bere buruarekiko errotazioz eta flexioz egingo dute lan honela, ohiko artikulazioek funtzionamendu egokirako behar duten lasaiera baztertu egingo da zehaztasun hobeak lortuz. Lan honetan zehar artikulazio flexible mota bat aukeratuko da eta geometriaren hainbat parametroren eta material ezberdinen aurrean edukiko duen jokaera analizatuko da. Aipatu beharra dago, artikulazio flexibleak azken hamarkadetan garatutako ideiak direnez beraiei buruzko informazioa oso pribatizatua dagoela eta ez dela lan erraza hau interneten edota liburutegietan topatzea. Ala ere, hauen analisirako aurkitu den informazio guztia eranskinetan dauden artikuluetan dago. Bertatik atera den informazio garrantzitsuena elementu finituen bitartezko analisian geometriak eduki beharreko baldintza batzuk eta ulermen eta aldaratze egokia lortzeko komeni diren datuak zehaztea izan da. Interesgarria da aipatzea analisiaren ondorioak konstante elastiko eta biratu dezaketen angelu maximoaren bitartez egin direla.
Resumo:
[ES] En este artículo hago un estudio lingüístico del habla que presenta el texto que llamaré « de Estibaliz Sasiola », escrito probablemente a fines del siglo XVI. Estibaliz de Sasiola parece ser la autora o recopiladora de un texto breve, escrito en verso, que se encuentra hacia el final del manuscrito de Joan Perez de Lazarraga. En el estudio del texto que nos ocupa comparo el euskera que pudiéramos atribuir a Sasiola con el de la parte más importante del manuscrito, que identificaríamos con el habla de Lazarraga. De la comparación de un buen número de características en los dos textos, llego a la conclusión de que el euskera del texto de Sasiola es significativamente distinto del habla de la mayor parte del manuscrito de Lazarraga. En el epílogo a este artículo hago una breve reflexión sobre el posible origen del euskera del texto de Sasiola. Una primera respuesta defendería que ese texto pudiera provenir de otra zona de Álava distinta a la de Lazarraga ; seguramente de más al este. Sin embargo, creo que hay varios tipos de evidencia para primar la hipótesis de que tanto Estibaliz Sasiola como el texto que nos ocupa fueran originarios de la Gipuzkoa noroccidental, seguramente de la zona de Deba.
Resumo:
Palavras ou expressões produzidas em línguas de sinais são conhecidas como sinais. Línguas de sinais são produzidas especificamente em forma visual e o significado dos sinais pode ser compreendido por meio da relação com recursos visuais, do usuário com o mundo e com o corpo. Este estudo, com base na Linguística Cognitiva, propõe-se a analisar essas relações em sinais da Língua Brasileira de Sinais (Libras), produzidos por dez surdos ao narrarem a história em quadrinhos Não chora que eu dou um jeito da Turma da Mônica. Os processos cognitivos foram analisados à luz da gramática cognitiva (LANGACKER, 2008), da corporificação (LAKOFF; JOHNSON, 1980), da metonímia conceptual (LAKOFF; JOHNSON, 2003; EVANS; GREEN, 2006; KÖVECSES, 2010), da categorização (CROFT; CRUSE, 2004; Rosch apud FERRARI, 2011), da iconicidade cognitiva (WILCOX, 2000; QUADROS, 2004; WILCOX, 2004) e da mescla em espaço real (FAUCONNIER; TURNER, 1996, 2003; LIDDELL, 2003; SHAFFER, 2012; DUDIS apud SHAFFER, 2012). Constatou-se que alguns sinais produzidos apresentaram conceptualização de base icônica. A partir dessa fundamentação, postulou-se que esses sinais poderiam receber a seguinte categorização: icônicos (BOLA e CAIXA); icônico metonímicos (INES e CASA); icônico metonímico corporificados (MONICA e CHORAR). Por meio dessa classificação, propôs-se também a categorização de nomes e verbos pessoais. Outro processo cognitivo investigado foi a mescla em espaço real, constatada em seis das dez narrativas, como um recurso cognitivo acionado para expor ao interlocutor a troca de turnos dos participantes da narração. Tendo em vista que esses sinais foram encontrados em narrativas, analisam-se etapas da narrativa (LABOV apud FIGUEIREDO, 2009) e a estrutura das histórias em quadrinhos (SILVA, 2001; SOUZA, 2013). Verificou-se que não houve narrativa com todas as etapas de Labov. Assim, por meio de uma investigação inicial, esta pesquisa fornece questionamentos acerca dos processos cognitivos acionados na produção de sinais da Libras nas narrativas pesquisadas
Resumo:
A presente dissertação se propõe a contribuir para as análises dos processos ligados à implementação das leis 10639/03 e 11645/08. Questionamo-nos acerca dos desdobramentos do imperativo das leis nos livros didáticos de história, sobretudo, no uso do conceito de colonizador no processo de explicação da relação entre diferentes povos e culturas nas coleções da disciplina história. Como estão descritas essas relações? Há mudanças institucionalizadas pelo PNLD ou pelas leis: que descrições de significados culturais, políticos os sujeitos implicados nos eventos de ocupação do território americano são apresentados nos manuais de ensino de história? Buscamos entender quais as relações de colonialidade do saber se estabelecem na sistematização dos conteúdos de história, tendo em vista que os atos de colonização envolvem dinâmicas que se chocam com as premissas hierárquicas simplificadas nos processos de ensino de história na escola de acordo com as descrições dos livros didáticos. As maneiras pelas quais o colonizador é rotulado como conquistador, supervalorizando a dimensão europeia do processo e subvalorizando os referenciais da cultura local representados nos povos pré-colombianos são problematizadas nessa dissertação sob duas perspectivas: (1) a superficialização das relações hierárquicas nos processos de colonização, dessa forma, inscrita no feixe de possibilidades que corrobora com as estratégias de perpetuação das simplificações das funções dos atores sociais no período colonial descritas nos manuais didáticos de história; (2) ou como reação prática ou simplista, como estratégia que modifica a realidade histórica social ao sabor das conveniências políticas, suas relações de poder e desenvolvimento de políticas públicas. A pesquisa fundamentou-se na análise de uma coleção de livro didático de história para o ensino médio (1 ao 3 anos) mais usadas efetivamente nas escolas públicas do município de Cabo Frio, Estado do Rio de Janeiro. A pesquisa delimita dois eixos, o primeiro, por meio da análise do histórico das legislações 10639/03 e 11645/08, leis nas quais são baseadas as regulamentações sobre o ensino étnico-racial e grande parte das discussões sobre ações afirmativas no Brasil; um segundo, no qual se estabeleceu investigação aos sentidos atribuídos ao que se define como colonizador e a percepção de quais são as descrições classificadas como colonialidade do saber histórico nos livros didáticos. Tal discussão sobre o colonizador pode contribuir na reflexão crítica sobre a institucionalização do saber histórico escolar do livro didático e de normalização nacional como os PNLDs, quanto às disputas de poder que ocorrem entre os atores políticos no processo de justificativa histórica das políticas públicas como as ações afirmativas.
Resumo:
O romance-folhetim, gênero que invadiu os rodapés dos jornais no século XIX e constituiu as bases de grandes clássicos da literatura, traz consigo marcas do melodrama, levando-o a ultrapassar os limites temporais do seu surgimento e se integrar aos recursos midiáticos e à performance teatral para dar origem a tramas que hoje se desenrolam diariamente na tela da televisão de milhares de telespectadores durante meses, em especial na América Latina. O romance-folhetim se perpetua através das telenovelas, principal representante da teleficção, que possui uma linguagem narrativa particular, mantendo as matrizes folhetinescas, e impondo-se como uma nova modalidade textual dentro do universo do entretenimento e da literatura industrial. Exemplo disso é a narrativa de Dancin days (1978), elencada como corpus para o estudo apresentado por essa dissertação, a fim de demonstrar a linha tênue que une a telenovela ao romance-folhetim, constituindo este uma matriz para as narrativas audiovisuais
Resumo:
Wydział Nauk Społecznych: Instytut Kulturoznawstwa
Resumo:
Dissertação de Mestrado apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Ciências Empresariais.
Resumo:
Modern scientific world-view has undermined traditional myths, the functional survival of which seems to depend today in the West on a positivist justification. This would place them in the field of real History, through their study and revitalization by pseudoscientific disciplines such as the Atlantis and the ancient astronaut hypotheses. These have inspired new epic poems in (regular) verse that combine classic and/or biblical myths with a (pseudo)scientific modern world-view. For example, the critical rewriting of Noah’s myth by using the ancient astronaut hypothesis as a fictional device to produce a contemporary kind of plausibility allowed Abel Montagut to renew epic poetry, updating it also by adopting science fiction chronotopes in order to structure his fictional construction and to generate a high ethical sense for our time. Thus, his Poemo de Utnoa (1993) / La gesta d’Utnoa (1996), which has become a major classic of the literature in Esperanto thanks to its original version in this language, is a landmark of both science fiction and neo-biblical epics. This poem is written from a secular and purely literary perspective.
Resumo:
El objetivo de este trabajo consiste en estudiar la evolución de los destinos turísticos litorales consolidados a partir del análisis comparado entre Balneario Camboriú y Benidorm. Se trata de dos destinos localizados en contextos territoriales y turísticos diferentes, en los que se contrastan de manera empírica los indicadores de evolución de los destinos y se vinculan las dinámicas evolutivas con el modelo territorial-turístico resultante en cada destino. El análisis realizado permite contrastar los postulados de los modelos evolutivos clásicos (Butler, 1980) e incorporar los nuevos planteamientos de la geografía económica evolutiva. La investigación delimita cronológicamente los periodos de desarrollo de ambos destinos para identificar los factores con mayor incidencia en la evolución de los mismos. Una evolución marcada, fundamentalmente, por la ubicación geográfica, la planificación y gestión urbanoturística a diferentes escalas, la dependencia de determinados mercados emisores y la influencia de factores macroeconómicos. Un conjunto de factores interrelacionados que dibujan trayectorias dispares para los destinos analizados.
Resumo:
L'invention porte sur un procédé consistant à détecter des bioproduits à l'aide d'une résonance plasmonique de surface localisée (LSPR) de nanoparticules d'or. Ledit procédé peut diagnostiquer des bioproduits sur la base de changements de la longueur d'onde maximale produite par une réaction antigène-anticorps après immobilisation des nanoparticules d'or sur un panneau en verre. Un détecteur utilisant un tel procédé présente une sensibilité élevée, est peu coûteux, permet un diagnostic rapide, et il peut ainsi être appliqué à divers domaines biologiques associés aux contaminants environnementaux, pathogènes et similaires, ainsi qu'au diagnostic de maladies. L'invention porte en outre sur une technologie pour fabriquer un détecteur dont la sensibilité est élevée, le prix faible et la performance rapide, par comparaison avec des procédés classiques utilisant SPR.
Resumo:
Résumé : De même degré d’importance que les paramètres de formulation, les conditions de consolidation sont des facteurs déterminants pour la durabilité des bétons conventionnels vibrés. Dans le cas des bétons autoplaçants (BAP), grâce à leur grande fluidité, la mise en place dans les coffrages a lieu par écoulement libre sous l’effet de leur poids propre. Leur consolidation se fait sans vibration grâce à leurs caractéristiques rhéologiques. Il est donc légitime de penser que les caractéristiques rhéologiques des BAP peuvent avoir une influence importante sur les propriétés qui déterminent la durabilité. Cette thèse étudie les liens possibles entre les caractéristiques rhéologiques des BAP et leur durabilité vis-à-vis du transport des agents agressifs. Dix-sept formulations de BAP couvrant une large gamme de caractéristiques rhéologiques et se différenciant uniquement par leur dosage en adjuvants ont été étudiées à cet effet. Trois modèles rhéologiques classiques ont été mis en œuvre pour la détermination des paramètres rhéologiques des bétons étudiés. L’essai de sorptivité et dans une moindre mesure l’essai de carbonatation accélérée ont été utilisés comme indicateur de durabilité vis-à-vis du transport des agressifs. La durabilité de la couche superficielle au contact respectivement avec le coffrage en bois et en PVC a été étudiée et les résultats ont été comparés à la durabilité du béton à cœur. Cette étude a été faite en tenant compte des échanges hydriques et de l’arrangement granulaire au droit du coffrage. D’autre part, l’étude de la durabilité de la couche superficielle dans des conditions de mise en place proches du chantier a été faite sur 6 poutres partiellement armées longues de 2 m ainsi que sur 3 bétons semi-autoplaçants légèrement vibrés. Les résultats montrent qu’il existe une corrélation forte entre la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley et la sorptivité. Très probablement, la viscosité agit sur le volume relatif des pores capillaires de gros diamètres. L’étude spécifique de la couche superficielle a montré que sa sorptivité dépend du type de coffrage utilisé à cause des éventuels échanges hydriques opérés entre le béton et la surface du coffrage. De plus, l’arrangement granulaire au droit du coffrage est également influencé. Ainsi, la sorptivité de la couche superficielle au contact du PVC est proche mais inférieure à celle du béton à cœur. La sorptivité de la couche superficielle au contact du bois est significativement inférieure à celle de la couche superficielle au contact du PVC tout en restant corrélé avec la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley.
Resumo:
La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa Para obtenção de grau de mestre em Ciências da Educação, Especialidade em Educação Especial – Problemas de Cognição e Multideficiência