918 resultados para general terms
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
O empacotamento irregular de fita é um grupo de problemas na área de corte e empacotamento, cuja aplicação é observada nas indústrias têxtil, moveleira e construção naval. O problema consiste em definir uma configuração de itens irregulares de modo que o comprimento do contêiner retangular que contém o leiaute seja minimizado. A solução deve ser válida, isto é, não deve haver sobreposição entre os itens, que não devem extrapolar as paredes do contêiner. Devido a aspectos práticos, são admitidas até quatro orientações para o item. O volume de material desperdiçado está diretamente relacionado à qualidade do leiaute obtido e, por este motivo, uma solução eficiente pressupõe uma vantagem econômica e resulta em um menor impacto ambiental. O objetivo deste trabalho consiste na geração automática de leiautes de modo a obter níveis de compactação e tempo de processamento compatíveis com outras soluções na literatura. A fim de atingir este objetivo, são realizadas duas propostas de solução. A primeira consiste no posicionamento sequencial dos itens de modo a maximizar a ocorrência de posições de encaixe, que estão relacionadas à restrição de movimento de um item no leiaute. Em linhas gerais, várias sequências de posicionamentos são exploradas com o objetivo de encontrar a solução mais compacta. Na segunda abordagem, que consiste na principal proposta deste trabalho, métodos rasterizados são aplicados para movimentar itens de acordo com uma grade de posicionamento, admitindo sobreposição. O método é baseado na estratégia de minimização de sobreposição, cujo objetivo é a eliminação da sobreposição em um contêiner fechado. Ambos os algoritmos foram testados utilizando o mesmo conjunto de problemas de referência da literatura. Foi verificado que a primeira estratégia não foi capaz de obter soluções satisfatórias, apesar de fornecer informações importantes sobre as propriedades das posições de encaixe. Por outro lado, a segunda abordagem obteve resultados competitivos. O desempenho do algoritmo também foi compatível com outras soluções, inclusive em casos nos quais o volume de dados era alto. Ademais, como trabalho futuro, o algoritmo pode ser estendido de modo a possibilitar a entrada de itens de geometria genérica, o que pode se tornar o grande diferencial da proposta.
Resumo:
Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais.
Resumo:
Dada la influencia fundamental de los medios de comunicación en la difusión de amenazas y riesgos, nuestro objetivo es analizar el discurso mediático en torno a un riesgo en particular: el medioambiental. A partir de una muestra de 84 programas informativos emitidos en las tres cadenas de televisión españolas con mayores índices de audiencia a nivel nacional, se ha localizado y analizado un total de 138 noticias, todas ellas relativas al medio ambiente y la naturaleza. La información recogida ha sido codificada y clasificada de acuerdo a cuatro temáticas: causas, consecuencias, soluciones y referencias a problemas medioambientales. En términos generales, las noticias tienden a centrarse en eventos concretos y a mostrar preferencia por contenidos emocionales, de entretenimiento o anecdóticos, frente a explicaciones en torno a soluciones, consecuencias y, sobre todo, causas de los problemas medioambientales.
Resumo:
Edible active films based on sodium caseinate (SC) and calcium caseinate (CC) plasticized with glycerol (G) at three different concentrations and carvacrol (CRV) as active agent were prepared by solvent casting. Transparent films were obtained and their surfaces were analysed by optical microscopy and scanning electron microscopy (SEM). The influence of the addition of three different plasticizer concentrations was studied by determining tensile properties, while Fourier transformed infrared spectroscopy (FTIR) and thermogravimetric analysis (TGA) were used to evaluate the structural and thermal behavior of such films. The addition of glycerol resulted in a reduction in the elastic modulus and tensile strength, while some increase in the elongation at break was observed. In general terms, SC films showed flexibility higher than the corresponding CC counterparts. In addition, the presence of carvacrol caused further improvements in ductile properties suggesting the presence of stronger interactions between the protein matrix and glycerol, as it was also observed in thermal degradation studies. FTIR spectra of all films showed the characteristic bands and peaks corresponding to proteins as well as to primary and secondary alcohols. In summary, the best results regarding mechanical and structural properties for caseinates-based films containing carvacrol were found for the formulations with high glycerol concentrations.
Resumo:
Many applications including object reconstruction, robot guidance, and. scene mapping require the registration of multiple views from a scene to generate a complete geometric and appearance model of it. In real situations, transformations between views are unknown and it is necessary to apply expert inference to estimate them. In the last few years, the emergence of low-cost depth-sensing cameras has strengthened the research on this topic, motivating a plethora of new applications. Although they have enough resolution and accuracy for many applications, some situations may not be solved with general state-of-the-art registration methods due to the signal-to-noise ratio (SNR) and the resolution of the data provided. The problem of working with low SNR data, in general terms, may appear in any 3D system, then it is necessary to propose novel solutions in this aspect. In this paper, we propose a method, μ-MAR, able to both coarse and fine register sets of 3D points provided by low-cost depth-sensing cameras, despite it is not restricted to these sensors, into a common coordinate system. The method is able to overcome the noisy data problem by means of using a model-based solution of multiplane registration. Specifically, it iteratively registers 3D markers composed by multiple planes extracted from points of multiple views of the scene. As the markers and the object of interest are static in the scenario, the transformations obtained for the markers are applied to the object in order to reconstruct it. Experiments have been performed using synthetic and real data. The synthetic data allows a qualitative and quantitative evaluation by means of visual inspection and Hausdorff distance respectively. The real data experiments show the performance of the proposal using data acquired by a Primesense Carmine RGB-D sensor. The method has been compared to several state-of-the-art methods. The results show the good performance of the μ-MAR to register objects with high accuracy in presence of noisy data outperforming the existing methods.
Resumo:
El objetivo del presente estudio es describir y comparar los porcentajes de no cumplimentación de dos instrumentos de registro: hoja circulante (HC) y lista de verificación quirúrgica (LVQ), en un mismo entorno quirúrgico para una muestra de pacientes de características similares. Metodología: Estudio descriptivo realizado sobre registros intraquirúrgicos de 3024 pacientes de Cirugía de Ortopedia y Traumatología. 1732 pacientes intervenidos en 2009 con modelo de hoja circulante, cumplimentada al finalizar la intervención y 1292 en 2010 intervenidos con modelo de registro lista de verificación quirúrgica (checklist) cumplimentado durante la intervención en tres tiempos. Se han calculado características descriptivas (media, desviación típica, mínimo y máximo) del porcentaje de no cumplimentación global en ambos registros y el porcentaje de no cumplimentación (intervalo de confianza al 95%) de cada ítem de los registros estudiados. Resultados: Se observa mayor porcentaje de cumplimentación global y, en general, también individual, en la hoja circulante que en la lista de verificación quirúrgica. Conclusiones: El registro intraquirúrgico que mayor porcentaje de cumplimentación ha tenido de manera global ha sido la hoja de circulante y se evidencia la necesidad de implantar estrategias para mejorar el grado de cumplimentación de la LVQ por su relación con la seguridad de pacientes.
Resumo:
According to the importance of rehabilitation and recovery of Architectural Heritage in the live of people, this paper is aimed to strengthen the traditional methods of stone vaults calculation taking advantage of the technological characteristics of the powerful program ANSYS Workbench. As an example of this, it could find out the possible pathologies that could arise during the construction history of the building. To limit this research, the upper vault of the main chapel of the Santiago parish church in Orihuela -Alicante- is selected as a reference which is a Jeronimo Quijano´s important building work in the XVI century in the Renaissance. Moreover, it is an innovative stone masonry vault that consists of 8 double intercrossed arches with each other and braced by severies. During the seventeenth century there was a lantern in the central cap and it is unknown why it was removed. Its construction could justify the original constructive solution with intercrossed arches that freed the center to create a more enlightened and comfortable presbytery. By similarity with other Quijano’s works, it is considered a small lantern drilling the central spherical cap. It is proposed to carry out a comparative study of it with different architectural solutions from the same period and based on several common parameters such as: a vault of square plant with spherical surround, intercrossed arches, a possible lantern, the dimension of the permitted space, similar states of loads and compact limestone masonry. The three solutions are mainly differentiated by their size and the type of lantern and its comparison lets us know which one is the most resistant and stable. The other two building works maintain some connection with the Quijano's professional scope. It has selected the particular case of the Communion chapel of the Basilica in Elche (a large prismatic lantern with a large cylindrical drum that starts from the own arches and an upper hemispherical dome), for its conservation, its proximity to Orihuela and its implementation during the century XVIII. Finally, a significant Dome Spanish Renaissance complete the selection: a cross vault of the Benavides Chapel of the Saint Francisco Convent in Baeza - Jaén-, designed by Andres of Vandelvira in the sixteenth century (a large hemispherical dome that starts from the own arcs). To simplify the calculation and standardize the work that have to be contrasted, all of them were considered with some similar characteristics: 30 cm constant thickness, the intercrossed arches were specifically analyzed and had identical loads, Young's modulus and Poisson's ratio. Regarding the calculation solutions, in general terms, the compressive stresses predominate, influencing on it the joint collaboration of the filling material on the vault, the vault itself, the thick side walls, the buttresses and the top cover weight . In addition, the three solutions are suitable, being the Orihuela one the safest and the Baeza one the riskiest for its large dimensions. Thus, the idea of intercrossed arches with suitable thickness would allow carry out the heaviest lantern and this would confirm it as a Renaissance architectural typology built in stone.
Resumo:
This paper, the third in a series for a CEPS project on the ‘The British Question’, is pegged on an ambitious exercise by the British government to review all the competences of the European Union on the basis of evidence submitted by independent stakeholders. The reviews considered in this paper cover the following EU policies: the single market for services, financial markets, the free movement of people, cohesion, energy, agriculture, fisheries, competition, social and employment policies, and fundamental rights. The declared objective of Prime Minister Cameron is to secure a ‘new settlement’ between the UK and the EU. From political speeches in the UK one can identify three different types of possible demand: reform of EU policies, renegotiation of the UK’s specific terms of membership, and repatriation of competences from the EU back to the member states. As most of the reviews are now complete, three points are becoming increasingly clear: i) The reform agenda – past, present or future - concerns virtually every branch of EU policy, including several cases reviewed here that are central to stated UK economic interests. The argument that the EU is ‘unreformable’ is shown to be a myth. ii) The highly sensitive cases of immigration from the EU and social policies may translate into requests for renegotiation of specific conditions for the UK, but further large-scale opt-outs, as in the case of the euro and justice and home affairs, are implausible. iii) While demands for repatriation of EU competences are voiced in general terms in public debate in the UK, no specific proposals emerge from the evidence as regards competences at the level at which they are identified in the treaties, and there is no chance of achieving consensus for such ideas among member states. Michael Emerson and Steven Blockmans, “British Balance of Competence Reviews, Part I: ‘Competences about right, so far’”, CEPS/EPIN Working Paper No. 35, October 2013 (www.ceps.eu/book/british-balance-competence-reviews-part-i-%E2%80%98competences-about-right-so-far%E2%80%99)(http://aei.pitt.edu/45599/); Michael Emerson, Steven Blockmans, Steve Peers and Michael Wriglesworth, “British Balance of Competence Reviews, Part II: Again, a huge contradiction between the evidence and Eurosceptic populism”, CEPS/EPIN Working Paper No. 40, June 2014 (www.ceps.eu/book/british-balance-competence-reviews-part-ii-again-huge-contradiction-between-evidence-and-eurosc)(http://aei.pitt.edu/52452/).
Resumo:
"Our present endeavour is to discuss the circumstances of those who are unhappy enough to be described in general terms as 'young criminals', dealing more particularly with those who have passed the age of sixteen, and are technically known as 'juvenile-adults'."--Introd.
Resumo:
The mathematical modelling underlying passive air sampling theory can be based on mass transfer coefficients or rate constants. Generally, these models have not been inter-related. Starting with basic models, the exchange of chemicals between the gaseous phase and the sampler is developed using mass transfer coefficients and rate constants. Importantly, the inter-relationships between the approaches are demonstrated by relating uptake rate constants and loss rate constants to mass transfer coefficients when either sampler-side or air-side resistance is dominating chemical exchange. The influence of sampler area and sampler volume on chemical exchange is discussed in general terms and as they relate to frequently used parameters such as sampling rates and time to equilibrium. Where air-side or sampler-side resistance dominates, an increase in the surface area of the sampler will increase sampling rates. Sampling rates are not related to the sampler/air partition coefficient (K-SV) when air-side resistance dominates and increase with K-SV when sampler-side resistance dominates.
Resumo:
Mechanistic models of pilling are discussed in general terms, and a framework for pilling simulations is thereby created. A fundamental flaw in earlier models of pilling is revealed. A more comprehensive model of fibre diffusion and withdrawal from the fabric is proposed, and this is solved in general terms to find the rate of fuzz growth. Fuzz wear-off and entanglement into pills are discussed. Fibre fatigue is introduced, and it is demonstrated that this potentially increases the rate of withdrawal of anchor fibres.
Resumo:
A pesquisa a seguir tem o poder como objeto de estudos, especificamente na forma de relações de poder em conselhos diretores (pastoral e administrativo) de igrejas menonitas em Curitiba. A forma presumida de governo dessas igrejas é historicamente congregacional, isto é, as assembléias das respectivas igrejas são supremas e últimas nas deliberações. A metodologia de pesquisa é sociológica, indutiva, funcionalista, com tendências fenomenológicas, tendo como perspectiva principal a teoria sistêmica e seus recursos de pesquisa. A teoria geral dos sistemas orienta os fundamentos da pesquisa, a teoria dos sistemas sociais é o arcabouço da pesquisa. O método de pesquisa é a observação-participante com registros em vídeo e áudio, transcrição, análise e elaboração de conclusões. A técnica de pesquisa citada demonstrou-se eficaz e útil para o levantamento de dados em pesquisas de campo que tratam de grupos e suas funções diferenciadas em agremiações eclesiásticas. Os objetivos buscam identificar a dinâmica sistêmica nas reuniões dos conselhos observados, bem como identificar o processo das relações de poder nos mesmos. As hipóteses lançadas como ponto de partida afirmam que a teoria sistêmica em qualquer perspectiva é observável, bem como os elementos (conselheiros) das relações de poder se demonstram inconscientes de seus atos de poder. As hipóteses principais e secundárias foram confirmadas pela observação-participante, a saber: a pesquisa verifica a hipótese geral de que mesmo igrejas e seus sistemas sociais evidenciam princípios sistêmicos segundo a teoria geral dos sistemas e a teoria dos sistemas sociais de Niklas Luhmann. As hipóteses específicas verificam se os conselheiros dos grupos de liderança evidenciam consciência do poder exercido e do poder implícito em suas funções e papéis; se os grupos formais, eleitos pela assembléia exercem poder de fato ou se existe influência do poder informal; se existe uma correlação, entre o poder formal e as fronteiras rígidas , o poder informal e a fronteira difusa ; se é possível trabalhar preventivamente e interventivamente através do conceito de relações de poder e os princípios sociais sistêmicos. As igrejas menonitas de Curitiba de maneira geral preservam traços de governo congregacional, mas, a transição para estilos de governo pastorcêntricos e autocráticos a partir dos conselhos observados é um fato e parece irreversível. Aparentemente a causalidade desse movimento surge no contexto social metropolitano e suas implicações, mais do que numa mudança estrategicamente planejada pelas lideranças. Portanto, a transição parece ser cultural. Aliás, as transformações sociais das tradições menonitas são diretamente proporcionais à sua inclusão e inculturação no contexto social em que se situam, confirmando assim os princípios sistêmicos da sociedade em geral.(AU)
Resumo:
A programação é a alma da emissora, ela dá identidade ao canal e é o verdadeiro produto da TV. A grade de programação faz parte de uma estratégia que busca atrair o máximo de audiência possível e, principalmente, mantê-la fiel. Na década de 1970, a TV Globo alcançou o primeiro lugar de audiência com um modelo de grade que, em linhas gerais, permanece até hoje, como por exemplo, o sanduíche novela-telejornal-novela. Mas como era programação televisiva antes da Globo? Quais os gêneros de programas mais comuns? O era exibido no horário nobre? Como era a programação da então líder TV Tupi? Da glamurosa TV Excelsior? Da TV Record de Paulo Machado de Carvalho? E da pequena TV Paulista que funcionava num apartamento? Nas duas primeiras décadas da TV brasileira é que surgiram as pesquisas de audiência, o videoteipe, as transmissões via satélite e o início da formação das redes. Como algumas dessas tecnologias influenciaram a programação? Por meio de uma metodologia quantitativa e qualitativa, baseada em pesquisa bibliográfica, observação de dados e em entrevistas com profissionais do setor, esta pesquisa de caráter exploratório se baseia em dois eixos estruturais: 1) Rever os principais critérios de classificação de gêneros televisivos e, com esta classificação, fazer a segunda parte do estudo: 2) Analisar as características de programação das quatro emissoras comerciais de maior audiência da TV aberta paulista, nas décadas de 1950 e 1960.
Resumo:
For more than forty years, research has been on going in the use of the computer in the processing of natural language. During this period methods have evolved, with various parsing techniques and grammars coming to prominence. Problems still exist, not least in the field of Machine Translation. However, one of the successes in this field is the translation of sublanguage. The present work reports Deterministic Parsing, a relatively new parsing technique, and its application to the sublanguage of an aircraft maintenance manual for Machine Translation. The aim has been to investigate the practicability of using Deterministic Parsers in the analysis stage of a Machine Translation system. Machine Translation, Sublanguage and parsing are described in general terms with a review of Deterministic parsing systems, pertinent to this research, being presented in detail. The interaction between machine Translation, Sublanguage and Parsing, including Deterministic parsing, is also highlighted. Two types of Deterministic Parser have been investigated, a Marcus-type parser, based on the basic design of the original Deterministic parser (Marcus, 1980) and an LR-type Deterministic Parser for natural language, based on the LR parsing algorithm. In total, four Deterministic Parsers have been built and are described in the thesis. Two of the Deterministic Parsers are prototypes from which the remaining two parsers to be used on sublanguage have been developed. This thesis reports the results of parsing by the prototypes, a Marcus-type parser and an LR-type parser which have a similar grammatical and linguistic range to the original Marcus parser. The Marcus-type parser uses a grammar of production rules, whereas the LR-type parser employs a Definite Clause Grammar(DGC).