94 resultados para Implicaturas Escalares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En física surgen numerosos problemas y teorías cuyas ecuaciones están dadas por fórmulas entre medias, es decir, que las magnitudes soluciones del fenómeno son medidas de magnitudes de la misma especie ¿Tiene existencia real el hecho de ser un fenómeno físico, armónico, geométrico, aritmético? ¿Todas las magnitudes físicas escalares cuando interviene su fenómeno físico equivalente en la superposición son aritméticos, armónicos, geométricos, cuadráticos? ¿En el fenómeno resultante llamado medio o de equilibrio, el carácter geométrico, armónico, etcétera, identifica a la magnitud física que estamos considerando?.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan algunas de las aplicaciones prácticas sobre la cuestión teórica y conceptual de la proporcionalidad de magnitudes. Primeramente se hace una breve reseña histórica y se precisa en concepto de magnitud. A continuación, se precisan algunos puntos de interés: las magnitudes escalares, las magnitudes escalares continuas y sus propiedades, la divisibilidad de una magnitud, la proporcionalidad entre magnitudes, la caracterización de la proporcionalidad, la medición indirecta de cantidades, la proporción entre cantidades, y la proporción numérica. El objetivo es iniciar a los alumnos de bachillerato en los primeros pasos de la Matemática elemental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se plantean ejemplos dentro del ámbito de la pragmalingüística: los actos de habla, los enunciados relevantes, la deixis y las implicaturas, para que el docente reflexione sobre la necesidad y el momento de aplicar estos contenidos.El objetivo es proporcionar a los docentes materiales e ideas a través de ejemplos sencillos sobre el ámbito de la pragmática y sobre las posibilidades de su aplicación en el aula E-LE, además de compartir ideas para aplicar dichos contenidos en el aula y evaluar la importancia de la aplicación de la pragmática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analizar la docencia en la Universidad Autónoma de Madrid (UAM), desarrollando un sistema de autoevaluación para el profesor. Elaborar programas de desarrollo profesional para profesores universitarios.. 318 profesores de la Universidad Autónoma de Madrid, pertenecientes a 6 Facultades universitarias.. Se realiza una revisión de la bibliografía existente sobre la autoevaluación, analizando su naturaleza, técnicas, proceso y dificultades de su aplicación. Se procede al planteamiento de las hipótesis y a la elaboración de los instrumentos de obtención de la información: 1. Cuestionario sobre la Actividad Docente, 2. Cuestionario de Autoevaluación para la Mejora de la Docencia, en el que se analizan las áreas de la actividad docente: planificación, actuación y evaluación. Tras la aplicación del cuestionario se procede al análisis estadístico de los datos según variables escalares para las que se realiza el análisis de varianza correspondiente. Los datos del cuestionario proporcionan información sobre: 1. Contexto de la docencia, 2. Tareas docentes, 3. Opiniones de los profesores, 4. Perfil profesional, 5. Relación entre aspectos de la actividad docente. Como complemento, se ofrece una bibliografía sobre los aspectos detallados en el cuestionario.. Cuestionario sobre la Actividad Docente, Cuestionario de Autoevaluación para la Mejora de la Docencia.. Criterio de Scheffé, tablas de frecuencias, coeficiente Alpha de Cronbach, factores ortogonales, Pearson, método de rotación Varimax, método de rotación Oblimin.. Existe un alto nivel de interés de los profesores por su docencia a pesar del grado medio de satisfacción con las condiciones en que se desarrolla. Se observa un deseo extendido de adoptar métodos docentes más participativos. Del análisis de las opiniones respecto a la docencia surgen dos concepciones: 1. Percepción de una docencia con contenidos de calidad pero sin preocupación por los aspectos pedagógicos de ellos, 2. Demanda de mayor dedicación a la docencia, con más interés de los alumnos y con la adopción de métodos docentes alternativos.. El apoyo institucional al procedimiento de autoevaluación podría contribuir a reforzar el sistema de reconocimiento a la docencia eficaz y la disposición del profesorado a aprovechar este recurso para la mejora..

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Construir un modelo de ense??anza-aprendizaje de la ecuaci??n fundamental de la Din??mica en torno a la posibilidad de utilizar el m??todo hist??rico, es decir, la posibilidad de establecer un paralelismo o isomorfismo entre la historia de la ciencia (evoluci??n del conocimiento hasta que llega a a ser cient??fico) y la psicog??nesis de los conceptos f??sicos. El an??lisis hist??rico posibilita la predicci??n, a partir de una estructura del pensamiento ontogen??tico (respecto a un concepto concreto), de qu?? otra estructura va a suceder, pero no es suficiente. la autora utilizar , adem??s, dos procesos: el an??lisis directo (ver c??mo construye la ecuaci??n un individuo) y el metacognitivo (analizar mi proceso de construcci??n de la ecuaci??n). Estudio de caso ??nico. La investigaci??n comienza con un recorrido por la historia de la ciencia desde la F??sica aristot??lica hasta la F??sica newtoniana, sus fundamentos y su influencia posterior. La autora plantea el paralelismo entre la evoluci??n hist??rica de los conceptos y nociones de la f??sica y su psicog??nesis. Pasa a realizar un recorrido por los medelos de aprendizaje (Bandura, Reigeluth, Bruner, Ausubel, Piaget y Gagn??), para llegar a elaborar su propuesta: un modelo de ense??anza-aprendizaje de la ecuaci??n fundamental de la din mica (segunda Ley de Newton). La parte experimental se centra en el dise??o del caso ??nico sobre el que la autora establece sus conclusiones, una vez aplicado el modelo. 1. Cambio a favor de la consideraci??n sist??mica de la situaci??n-problema (resultante de fuerzas); 2. Superaci??n del conflicto cognitivo resultado del uso indiscriminado de gravedad y peso; 3. Introducci??n en su esquema de la variable gravedad terrestre para diferenciar entre la aceleraci??n gravitatoria y no gravitatoria; 4. Mediante la coordinaci??n de esquemas (primero y segundo principios de la din??mica) puedo inferir que cuando la resultante de fuerzas es igual a cero, el cuerpo est?? en reposo o lleva velocidad constante, cuando es distinto de cero, el cuerpo sufre una variaci??n en su velocidad (aceleraci??n); 5. La coordinaci??n de esquemas le permiti?? conferir un significado preciso y adecuado al principio de acci??n y reacci??n; 6. Diferenciaci??n de magnitudes escalares y vectoriales (que necesitan considerar la direcci??n y el sentido). Ante el problema planteado en la investigaci??n y referido a si la ontog??nesis podr??a o no recapitular a la filog??nesis, decir que no tiene sentido suponer que los alumnos, por s?? mismos, puedan construir todos los conocimientos que, tanto esfuerzo y tiempo, costaron a los m??s relevantes cient??ficos; la ense??anza por descubrimiento dar??a paso al trabajo colectivo de investigaci??n dirigida, tan alejado del descubrimiento aut??nomo, como de la trasmisi??n de conocimientos ya elaborados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta novos resultados matemáticos sobre a positividade local de funções escalares multivariáveis. Estes resultados são usados para resolver de forma quantitativa o problema de controle +¥ não-linear. Por solução quantitativa, entende-se uma solução (uma lei de controle) associada a uma região de validade. A região de validade é a região do espaço de estados onde os requerimentos de estabilidade e desempenho são satisfeitos. Para resolver o problema de forma eficiente, foi desenvolvido um procedimento que visa maximizar a região de validade do controlador enquanto garante um desempenho mínimo. A solução deste problema de otimização é estudada e alternativas para sua simplificação são apresentadas. Uma aplicação experimental a um sistema de controle de pH é apresentada. A utilidade dos resultados teóricos desenvolvidos na teoria de estabilidade de Lyapunov também é estudada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa analisa as mudanças comportamentais e as barreiras percebidas com a adoção da Internet, na opinião do corpo docente e administrativo, da Universidade da Região da Campanha – URCAMP - BAGÉ/RS. Inicialmente, foi analisado o uso da Internet, considerando-se os índices dos usuários e não-usuários, tipos de serviços, etc. Posteriormente, foram analisadas as mudanças comportamentais observadas na estrutura organizacional, nos grupos e no indivíduo e, finalmente, analisaram-se as barreiras que inibem ou dificultam o uso pleno da Internet na Universidade. Foram coletados dados junto ao corpo docente (professores) e corpo administrativo (diretores, coordenadores, chefes e funcionários de apoio) pertencentes a quatro campi da Universidade (Bagé - Campus Sede, Alegrete, São Gabriel e Sant`Ana do Livramento), na tentativa de fazer um diagnóstico no ambiente acadêmico referente ao uso desta tecnologia. Para atingir os objetivos propostos, efetuou-se uma pesquisa survey, sendo os dados coletados diretamente em quinhentos e cinqüenta e oito professores e campi, que responderam a um conjunto de questões fechadas e escalares. A partir da análise quantitativa dos dados coletados, chegou-se a alguns resultados significativo referentes às mudanças comportamentais percebidas tais como: maior criatividade na execução das tarefas, a imagem da URCAMP mais conhecida, novas habilidades e aquisição de novos conhecimentos. No que se refere as barreiras percebidas, destacam-se o suporte tecnológico referente à distribuição dos equipamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa realizar o estudo do comportamento dinâmico de um eixo rotor flexível, modelado segundo a teoria de Euler-Bernoulli e caracterizar as respostas periódicas de sistemas LTI (sistemas lineares invariantes no tempo) e sistemas fracamente não lineares de ordem arbitrária. Para tanto, é utilizada a base dinâmica gerada pela resposta impulso ou solução fundamental. O comportamento dinâmico de um eixo rotor flexível foi discutido em termos da função de Green espacial e calculada de maneira não-modal. Foi realizado um estudo do problema de autovalor para o caso de um um eixo rotor biapoiado. As freqüências são obtidas e os modos escritos em termos da base dinâmica e da velocidade de rotação. As respostas periódicas de sistemas LTI, utilizadas nas aproximações com sistemas fracamente não lineares, são obtidas, independentemente da ordem do sistema, como um operador integral onde o núcleo é a função de Green T-periódica. Esta função é caracterizada em termos das propriedades de continuidade, periodicidade e salto da função de Green T-periódica, e da base dinâmica Simulações foram realizadas para sistemas concentrados, matriciais e escalares, com o objetivo de mostrar a validade da metodologia desenvolvida com as propriedades da função de Green T-periódica. Foi abordado um modelo não-linear para uma centrífuga utilizada na indústria textil [Starzinski, 1977].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, examinamos em detalhe resultados recentes apresentados em [Zingano, 1999], [Zingano, 2004], [Zingano, 1996a] [T. Hagstrom, 2004] sobre o comportamento de soluções para equações (escalares) de ad vecção-difusão nãolineares, da forma Ut + div(f(u)) = div(A(u)V'u), x E ]Rn, t > O correspondentes a estados iniciais u(., O) E LI(]Rn) n DXJ(JRn).Aqui, A(u) E ]Rn é uniformemente positiva definida para todos os valores de u em questão, e f( u) = (f1(u),..., fn(u)) corresponde ao fluxo advectivo, com A, f suaves. Entre os vários resultados, tem-se em particular os limites assintóticos . !!. (I_l) Iml (47rÀ)~ 11mt2 p Ilu(" t)IILP(JRn) = (4 À)!!. - , t-++oo 7r 2 P para cada 1 :::;P :::;00, uniformemente em p, bem como lim t~(l-i) Ilu(" t) - u(',t)IILP(JRn) = O, t-++oo 1:::; p:::; 00 para duas soluçõesu(', t), u(', t) quaisquer correspondentesa estados iniciais u(', O),u(', O)E LI (]Rn) n Loo(]Rn) com a mesma massa, isto é, r u(x, O)dx = r u(x,O)dx JJRn JJRn Outra propriedade fundamental, válida em dimensão n ;:::2, é lim t%(l-~) Ilu(" t) - v(', t) IILP(JRn) = O t-++oo para cada 1 :::;p :::; 00, se v(', t) é solução da equação de advecção-difusão linear Vt + f (O) . V'v= div(A(O)V'v), x E ]Rn, t > O, com u(', O),v(', O) E U(]Rn) n Loo(JRn) tendo a mesma massa. Outros resultados de interesse são também discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa é um estudo de caso da AGCO que tem como objetivo geral identificar, caracterizar e analisar as transformações decorrentes do Programa MODERFROTA na indústria de máquinas agrícolas. Os objetivos específicos são identificar e analisar os impactos do Programa MODERFROTA nos agentes financeiros e rede de concessionárias Massey Ferguson. O trabalho justifica-se pela participação preponderante do Programa MODERFROTA, desde sua implementação no ano 2000, no financiamento de tratores e colheitadeiras produzidos pela AGCO. Para atingir os objetivos propostos, buscou-se fazer uma revisão na literatura, abrangendo desde o papel do Estado na agricultura brasileira dos anos 30 à formação dos complexos agroindustriais, popularmente conhecidos como agronegócios, bem como os instrumentos de política econômica para modernização da agricultura. Para atingir os objetivos específicos, foi realizada uma pesquisa survey junto a 223 gestores de concessionárias da rede Massey Ferguson que responderam a um questionário de quinze questões, sendo treze fechadas escalares e duas abertas, para identificar e analisar os impactos do Programa MODERFROTA na produção e comercialização de tratores e colheitadeiras. Também foram coletados dados secundários nos sites da Associação Nacional de Fabricantes (ANFAVEA), Banco Central do Brasil (BACEN), Banco Nacional de Desenvolvimento Econômico e Social (BNDES), Ministério da Agricultura, Pecuária e Abastecimento (MAPA), Companhia Nacional de Abastecimento (CONAB), Instituto Brasileiro de Geografia e Estatística (IBGE) para compor informações que permitiram analisar quantitativamente e comparativamente seus impactos na indústria de máquinas agrícolas e AGCO. A partir da análise dos dados coletados, chegou-se a resultados que evidenciaram a intensificação nas relações entre os agentes financeiros, concessionárias e AGCO; oscilações na comercialização em função dos desembolsos de recursos do BNDES e aumentos significativos na produção e exportação de tratores e colheitadeiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.