999 resultados para Lógica Condicional
Resumo:
A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.
Resumo:
A presente dissertação discute e analisa como se constitui o processo de escolarização das Tecnologias da Informação e Comunicação (TICs) em turmas de séries iniciais no âmbito da escola pública. Na articulação dos estudos de Michel Foucault e dos Estudos Culturais Pós-estruturalistas, procurei investigar práticas escolares e examinar as relações de poder-saber aí implicadas. Além disso, atentei para aqueles movimentos/ações com a finalidade de fuga, ruptura, que entraram em luta com os mecanismos/estratégias ligados à constituição do processo em questão. Com esse objetivo, para compor o corpus de pesquisa, incursionei no espaço escolar e desenvolvi observações no laboratório de Informática em um período de aproximadamente quatro meses. De acordo com essas observações, produzi um diário de campo. Também realizei entrevistas com direção e vice-direção, professora responsável pelo laboratório de Informática, professoras, alunos e alunas de séries iniciais. Participei de uma reunião de professores e reuni alguns materiais sobre as TICs que me foram disponibilizados pela escola. Explorei tais materiais atentando para as práticas de significação que os tornaram possíveis, valendo-me dos pressupostos da análise de discurso foucaultiana, que aponta para a total inseparabilidade de discurso e prática. Utilizei como ferramentas analíticas os conceitos de prática, relações de poder-saber, linguagem, disciplina. A trama das ferramentas com os materiais possibilitou-me argumentar que a constituição do processo de escolarização das TICs está relacionada a um elemento por mim identificado como tendo tornado esse processo possível, qual seja, a necessária associação das TICs à educação escolarizada e pública. Do mesmo modo, analisei a disciplinarização como um dos processos implicados na constituição da escolarização das TICs. Por meio desse processo, foi possível examinar algumas práticas/estratégias disciplinares, tanto no eixo do corpo quanto no eixo dos saberes, comprometidas em adequar/ajustar as TICs a uma determinada estrutura e organização escolarizadas.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
Nas últimas décadas, a análise dos padrões de propagação internacional de eventos financeiros se tornou o tema de grande parte dos estudos acadêmicos focados em modelos de volatilidade multivariados. Diante deste contexto, objetivo central do presente estudo é avaliar o fenômeno de contágio financeiro entre retornos de índices de Bolsas de Valores de diferentes países a partir de uma abordagem econométrica, apresentada originalmente em Pelletier (2006), sobre a denominação de Regime Switching Dynamic Correlation (RSDC). Tal metodologia envolve a combinação do Modelo de Correlação Condicional Constante (CCC) proposto por Bollerslev (1990) com o Modelo de Mudança de Regime de Markov sugerido por Hamilton e Susmel (1994). Foi feita uma modificação no modelo original RSDC, a introdução do modelo GJR-GARCH formulado em Glosten, Jagannathan e Runkle (1993), na equação das variâncias condicionais individuais das séries para permitir capturar os efeitos assimétricos na volatilidade. A base de dados foi construída com as séries diárias de fechamento dos índices das Bolsas de Valores dos Estados Unidos (SP500), Reino Unido (FTSE100), Brasil (IBOVESPA) e Coréia do Sul (KOSPI) para o período de 02/01/2003 até 20/09/2012. Ao longo do trabalho a metodologia utilizada foi confrontada com outras mais difundidos na literatura, e o modelo RSDC com dois regimes foi definido como o mais apropriado para a amostra selecionada. O conjunto de resultados encontrados fornecem evidências a favor da existência de contágio financeiro entre os mercados dos quatro países considerando a definição de contágio financeiro do Banco Mundial denominada de “muito restritiva”. Tal conclusão deve ser avaliada com cautela considerando a extensa diversidade de definições de contágio existentes na literatura.
Resumo:
Levitt (1960) apresentou o termo Miopia em Marketing e discutiu sobre o perigo de as organizações centralizarem seu foco no produto e descuidarem da real necessidade dos clientes, já que o produto é apenas um meio para atender à necessidade do cliente e não o fim em si. Na mesma linha, Shostack (1977), quase duas décadas mais tarde, enfatizou a urgência de se entender a posição do Marketing na economia pós-industrial de serviços, em que a lógica tradicional focada em produtos não mais atendia adequadamente o mercado. Portanto, não é recente a visão de que a posse do bem físico é secundária para o atendimento das necessidades do consumidor, sendo fundamental pensar no benefício que o bem proporciona ao cliente quando do seu uso. Mais recentemente, Vargo e Lusch (2004a) retomaram a discussão sobre a importância de as organizações atentarem para as necessidades dos clientes em vez de apenas focarem na transação, ou seja, na ideia de troca de um produto por um valor monetário. Estes autores emergiram novamente com a ideia de que as empresas precisam entregar benefícios aos seus clientes e a que apropriação do serviço gerado pela oferta da empresa é mais importante do que a transferência de posse do bem físico. Eles retomam, desta forma, as ideias de Levitt e Shostack e as modificam para criar a Service-Dominant Logic ou S-D Logic, como eles denominam. A ênfase desta proposta é que o Marketing deixe de considerar a transação de produtos ou serviços como central para a criação de valor, para uma lógica centrada no serviço produzido pelo bem – produto ou serviço. Assim, passa ser fundamental entender como o valor é percebido pelo cliente na fase de uso e focar os esforços na geração desse valor, possibilitando, assim, que empresas que entendam as reais necessidades do mercado, criem vantagem competitiva sustentável. Considerando a proposta destes autores, este trabalho testou a aplicação deste conceito na indústria de equipamentos de refrigeração para transporte de cargas com temperatura controlada no Brasil. Foram entrevistados seis importantes transportadores de carga frigorificada do país, os quais foram questionados sobre o valor do serviço usufruído pela posse do bem em contraposição ao valor percebido de usufruir o serviço sem ter que comprar o bem para tal. Os entrevistados associam muito valor à posse do bem, pois, para eles, isso garante que o serviço não sofrerá interrupções, algo muito valioso para eles. Isso evidencia uma falta de confiança nas alternativas possíveis à compra do ativo pela empresa. A confiança no prestador do serviço é, portanto, elemento chave na avaliação dos benefícios, reforçando achados de estudos anteriores. Foram identificadas diferenças de atribuição de valor para as propostas alternativas de fornecimento em razão da relevância do serviço de transporte refrigerado para a empresa – negócio central ou função de apoio para o negócio central da empresa.
Resumo:
Neste trabalho fazemos um breve estudo de Álgebras de Operadores, mais especificamente Álgebras-C* e Álgebras de von Neumann. O objetivo é expor alguns resultados que seriam os análogos não-comutativos de teoremas em Teoria da Medida e Teoria Rrgódica. Inicialmente, enunciamos alguns resultados de Análise Funcional e Teoria Espectral, muitos destes sendo demonstrados, com ênfase especial aos que dizem respeito µas álgebras. Com isso, dispomos das ferramentas necessárias para falarmos de alguns tópicos da então chamada Teoria da Integração Não-Comutativa. Uma desigualdade tipo Jensen é provada e, com o teorema de Radon-Nikodym para funcionais normais positivos, construimos uma esperança condicional, provando que esta possui as mesmas propriedades da esperança condicional da Teoria das Probabilidades. Dada a Esperança Condicional, objeto este que faz parte do cenário atual de pesquisa na área de Álgebra de Operadores e que está relacionado com resultados fundamentais tal como o Índice de Jones, passamos à definição da Entropia de Connes-Stormer. Finalizamos o trabalho analisando esta entropia, que é a versão para as álgebras de von Neumann da entropia Kolmogorov-Sinai em Teoria Ergódica. Provamos algumas pro- priedades que são análogas às do conceito clássico de entropia e indicamos uma aplicação da mesma. O texto não possui resultados originais, trata-se apenas de uma releitura de artigos usando versões mais recentes de alguns teoremas.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
Nestes slides são apresentados conceitos sobre a inferência lógica e os sistemas de derivação. Define o conceito de argumento válido, e demonstra que a verificação da validade de argumentos pode ser feita por meio de tabelas-verdade e pelo uso de regras de inferência.