1000 resultados para Teoria da Resposta ao Item (TRI)
Resumo:
Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ensino do Inglês e de Línguas Estrangeiras no 3º ciclo do Ensino Básico e no Ensino Secundário
Resumo:
La LOGSE creó el INCE, Instituto de calidad y evaluación encargado de llevar la evaluación general del sistema educativo. Llevó a cabo su primer proyecto de evaluación que insistió en la evaluación de la educación primaria a través de unas pruebas de rendimiento en 1995 de 6õ de EGB. Se ha propuesto un procedimiento mixto para la selección de los items y construcción de pruebas de rendimiento que intenta combinar, por un lado, la evaluación criterial con la normativa y, por otro, los métodos de la teoría clásica de los tests (TCT) con la teoría de la respuesta al item (TRI). Los resultados obtenidos indican que el procedimiento mixto utilizado es un mecanismo válido para la construcción de pruebas de rendimiento en las que la selección de items no puede realizarse atendiendo sólo al funcionamiento psicométrico de esos items, sino que dicha selección ha de tener en cuenta, las categorías establecidas en el marco curricular para las materias evaluadas. Por otro lado, con este procedimiento se combinan mejor las ventajas de ambos. Está previsto aplicar el procedimiento mixto a otras áreas y niveles educativos. Estos estudios proporcionarán una indicación del grado de generalización por niveles y áreas curriculares, así como una validación global del procedimiento propuesto para la construcción de pruebas de rendimiento para la evaluación de la enseñanza no universitaria.
Resumo:
Determinar la estructura factorial de la tradicionalmente denominada comprensión verbal o, en términos más generales, de la inteligencia general cristalizada. Obtener una batería de tests basada en contenidos verbales, fiable y válida para la predicción del rendimiento académico en educación primaria y secundaria obligatoria. Hipótesis: 'La aptitud tradicionalmente conocida como comprensión verbal no es una aptitud simple, sino que es un constructo de naturaleza multidimensional, que puede descomponerse en cuatro factores que, a su vez, están muy correlacionados, mostrando además la unicidad de dicha aptitud. Los factores son los siguientes: 1. Conocimiento y manejo de vocabulario o factor semántico. 2. Conocimiento de estructuras ligüísticas. 3. Clausura verbal. 4. Razonamiento verbal o relaciones verbales'. Estudio 1: 356 estudiantes de BUP y COU de Cantabria y Granada; Estudio 2: Alumnos de cuarto, quinto, séptimo, octavo de EGB y de primero de BUP; Estudio 3; 211 alumnos de quinto, sexto, y séptimo de EGB y 183 sujetos de octavo de EGB. El estudio se estructura en tres fases sucesivas: 1. Inteligencia verbal en estudiantes de BUP y COU; se aplica una batería de tests que proviene de investigaciones previas. A través de análisis factoriales y de conglomerados se establece la estructura factorial de la comprensión verbal. Las variables utilizadas son 3 factores: lingüístico, de razonamiento y semántico. 2. Comprensión lingüística en escolares de 9 a 15 años; se construyen 64 pruebas con 2 diferentes niveles de dificultad. Se analizan los elementos de cada test en el marco de la Teoría de Respuesta al item (TRI). Las variables empleadas son: comprensión semántica, razonamiento inductivo-deductivo, lingüístico, rapidez perceptiva o de clausura. 3. Propiedades psicométricas de los tests de las baterías; la batería definitiva se compone de 28 tests en el nivel elemental y de 29 tests en el nivel medio. Analizan las pruebas por los procedimientos de la teoría clásica y de la TRI, ecuaciones de regresión y análisis factoriales. Las variables consideradas son los siguientes factores: semántico, razonamiento inductivo y deductivo, lingüístico, rapidez-clausura verbal, memoria inmediata. Correlacciones, análisis factorial no lineal, programa Noharm, índice de dificultad, varianza, índice de discriminación, coeficiente alpha, programa Reliability, respuestas de elección múltiple, programa BILOG 3.0, validez de criterio, programas correlations, correlaciones de Pearson, tablas, validez predictiva, procedimiento STEPWISE, programa SPSS-REGRESSION, programa LISREL. Los cuatro factores considerados en la hipótesis de partida, en relación con la estructura factorial de la comprensión verbal, aparecen claramente en el nivel medio, pero no en el nivel elemental, donde la estructura resultante es más compleja. Los análisis realizados permiten confirmar que la batería de pruebas elaborada es un instrumento fiable y válido para el diagnóstico de la inteligencia verbal. En resumen, los resultados apuntan que la comprensión verbal es un factor multidimensional, que puede considerarse como representativo de la aptitud general cristalizada.
Resumo:
Tratando-se de uma burocracia governamental criada em 1938, o Inep e sua história institucional são acompanhados pela trajetória da agenda educacional brasileira. Esta dissertação teve por objetivo examinar o desenvolvimento institucional do Inep, verificando a reforma ocorrida em meados da década de 90, que implantou um amplo sistema de avaliação de desempenho à política educacional do País. A dissertação está divida em duas partes. A primeira, analisando a conjuntura crítica, destaca o peso de processos históricos para explicar a mudança ocorrida no Inep, enquanto a segunda, analisando a trajetória dependente, destaca o peso da mudança para explicar tendências de continuidade. Resumidamente, os principais fatores que possibilitaram a conjuntura crítica foram: financiamento e consultoria internacional, interrupção do Censo Escolar, emergência da metodologia da Teoria de Resposta aos Itens, construção de rede entre as Secretarias Estaduais de Educação e a emergência de determinadas lideranças políticas. Criados Saeb, Enem, Provão entre outras avaliações, o Inep passou a mensurar o desempenho do ensino. A ascensão de um governo oposicionista não desviou essa trajetória, mas a acentuou. Assim, inovações incrementais foram promovidas, com destaque para a criação do Ideb e do Plano de Metas “Todos pela Educação”. Por fim, considerando o posicionamento do Inep para a retroalimentação do ciclo da política educacional, a dissertação aponta uma tendência institucional para a necessária integração de dados educacionais dos diferentes níveis federativos.
Resumo:
Oferece subsídios para a resposta à recomendação constante do item 9.2 do Acórdão nº 793/2016-TCU-Plenário, para que as Presidências da Câmara dos Deputados e do Senado orientem os órgãos de assessoramento legislativo que atuam junto às comissões competentes, quando da análise de propostas que concedem ou ampliam renúncias de receita tributárias, sobre a necessidade de que seja verificado o cumprimento dos requisitos exigidos no art. 14 da Lei de Responsabilidade Fiscal.
Resumo:
O objetivo deste trabalho foi testar uma teoria termodinâmica em brisas marítimas-terrestres acopladas com brisas de vale-montanha através de simulações numéricas tridimensionais em uma região da costa leste do Nordeste Brasileiro, considerando a presença e a ausência da topografia. Embora o contraste de temperatura entre as superfícies seja importante na formação da brisa, a eficiência termodinâmica é fundamental na determinação da sua intensidade. Tem-se que a inclinação faz com que a diferença de pressão entre dois pontos fique maior durante o dia e menor durante a noite contribuindo para a formação de brisas marítimas mais intensas e de brisas terrestres menos intensas, respectivamente. A máxima queda de pressão ocorre por volta de três horas antes da máxima intensidade da brisa. Isso porque grande parte da energia disponibilizada para as circulações é gasta para vencer dissipação, principalmente, no período diurno, quando esses processos são realmente efetivos. Do ponto de vista puramente termodinâmico a inclinação da montanha atua para intensificar a brisa durante o dia e para enfraquecê-la durante a noite.
Resumo:
No âmbito da condução da política monetária, as funções de reação estimadas em estudos empíricos, tanto para a economia brasileira como para outras economias, têm mostrado uma boa aderência aos dados. Porém, os estudos mostram que o poder explicativo das estimativas aumenta consideravelmente quando se inclui um componente de suavização da taxa de juros, representado pela taxa de juros defasada. Segundo Clarida, et. al. (1998) o coeficiente da taxa de juros defasada (situado ente 0,0 e 1,0) representaria o grau de inércia da política monetária, e quanto maior esse coeficiente, menor e mais lenta é a resposta da taxa de juros ao conjunto de informações relevantes. Por outro lado, a literatura empírica internacional mostra que esse componente assume um peso expressivo nas funções de reação, o que revela que os BCs ajustam o instrumento de modo lento e parcimonioso. No entanto, o caso brasileiro é de particular interesse porque os trabalhos mais recentes têm evidenciado uma elevação no componente inercial, o que sugere que o BCB vem aumentando o grau de suavização da taxa de juros nos últimos anos. Nesse contexto, mais do que estimar uma função de reação forward looking para captar o comportamento global médio do Banco Central do Brasil no período de Janeiro de 2005 a Maio de 2013, o trabalho se propôs a procurar respostas para uma possível relação de causalidade dinâmica entre a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes, usando como método a aplicação do filtro de Kalman para extrair a trajetória do coeficiente de inércia e a estimação de um modelo de Vetores Autorregressivos (VAR) que incluirá a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes. De modo geral, pelas regressões e pelo filtro de Kalman, os resultados mostraram um coeficiente de inércia extremamente elevado em todo o período analisado, e coeficientes de resposta global muito pequenos, inconsistentes com o que é esperado pela teoria. Pelo método VAR, o resultado de maior interesse foi o de que choques positivos na variável de inércia foram responsáveis por desvios persistentes no hiato do produto e, consequentemente, sobre os desvios de inflação e de expectativas de inflação em relação à meta central.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica - Manutenção e Produção
Resumo:
Os problemas relacionados com a axiomatização da Teoria da Probabilidade remontam ao início do nosso século. Se bem que, as várias tentativas de axiomatização, não surjam exclusivamente como uma resposta de índole matemática, foram vários os matemáticos que tentaram ver na construção axiomática, um processo de filiação da Teoria da Probabilidade como um subcapítulo da Teoria da Medida. O objectivo desta comunicação visa arrumar de alguma forma a dualidade que quase sempre está presente, separando o formalismo matemático (de que a Probabilidade se serve) da questão filosófica: “o que é a Probabilidade?” Basicamente, concluir-se-á que a pergunta acima formulada não faz sentido num contexto puramente matemático.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica
Resumo:
O intuito desta dissertação é investigar em que medida a Teoria Moderna do Portfólio pode ser aplicada à selecção de um portfólio de canais ou de tácticas de Marketing Digital, de modo a obter o melhor compromisso entre o retorno esperado do investimento e o respectivo risco. Anteriores aplicações da teoria do portfólio ao Marketing, enquanto meio de racionalizar a selecção do portfólio, concentraram-se no uso deste modelo em decisões relacionadas com portfólios de produtos, de clientes e segmentos de clientes, de formatos de retalho e de promoções de preço. Não se encontraram evidências de que a abordagem proposta neste texto tenha já sido tentada. A evolução tecnológica nas últimas duas décadas trouxe a adopção generalizada de smartphones e tablets e também a revolução da internet, originando a proliferação do e-mail, dos blogs e dos sites de redes sociais. Devido à infinidade de meios para chegar aos consumidores, os marketers enfrentam actualmente grandes desafios no planeamento e na definição das suas estratégias de Marketing. Em resposta, consultoras detêm ferramentas para a análise de portfólios de canais de Marketing que permitem às empresas e aos marketers, em particular, melhorar o desempenho da sua actividade e maximizar o rendimento da sua despesa de Marketing. Contudo, além de dispendiosas e estritamente analíticas, estas ferramentas são muito sofisticadas, baseando-se em algoritmos e raciocínios complexos que nem sempre são evidentes para os marketers, o que dificulta a sua compreensão e consequentemente a sua adopção. Sem uma ferramenta de análise, é frequente os marketers fundamentarem as suas decisões nos resultados das campanhas online anteriores, registados pelas Web Analytics, e na sua experiência profissional. Assim, crê-se que a Teoria Moderna do Portfólio, baseando-se em conceitos estatísticos simples, possa representar para os marketers uma ferramenta útil no apoio à selecção do conjunto de canais ou de tácticas de Marketing Digital que melhor se adequa aos interesses e aos objectivos estratégicos das organizações. A Teoria Moderna do Portfólio tem como principais vantagens a análise e selecção de portfólios com base na sua combinação de retorno esperado e risco de investimento (retorno ajustado ao risco), por oposição a considerar exclusivamente o retorno esperado, e a simplicidade estatística do modelo, por oposição aos softwares das consultoras. O presente estudo fundamentou-se na literatura existente acerca da Teoria Moderna do Portfólio, concebida em 1952 por Harry Markowitz, bem como no conceito de Sharpe Ratio, por William Sharpe, tendo-se revisto também conceitos genéricos de Marketing e Marketing Digital. Dado que a medição do retorno financeiro do investimento em Marketing – central ao estudo – não é tão linear quanto a medição dos retornos de activos financeiros, revelou-se necessário introduzir algumas alterações à teoria do portfólio original. Estas alterações tomaram em consideração as principais conclusões dos estudos anteriores sobre a aplicação do modelo a outras áreas. Para desenvolver o modelo proposto, utilizou-se o Microsoft Excel. Seguidamente, procedeu-se à sua prova de conceito através de uma abordagem empírica, utilizando dados de uma empresa portuguesa de Marketing Digital. Concluiu-se que é possível aplicar a Teoria Moderna do Portfólio à selecção de canais ou tácticas de Marketing Digital de uma empresa, com as devidas adaptações, para determinar as parcelas do orçamento de comunicação de uma organização a alocar a cada tipo de canal ou táctica.
Resumo:
Este estudo se propõe a apresentar uma reflexão teórica sobre a relação entre os conceitos de Ser Humano, saúde e doença, e as perspectivas advindas com o desenvolvimento da Teoria Quântica. Apresenta argumentos para a compreensão de que a partir do momento em que há o reconhecimento da dimensão espiritual, existe a necessidade de reformulações dos conceitos que norteiam a prática profissional, uma vez que são estes que possibilitam a interpretação e direcionam a resposta comunicacional que, no caso da saúde, resulta no atendimento ao doente. Entende como imperativa a necessidade, para o atendimento e compreensão da dimensão espiritual do Ser Humano, do aprofundamento do nível comunicacional que exercemos com as pessoas.
Resumo:
O monitoramento periódico do estado de compactação do solo por meio da resistência à penetração é uma forma prática de avaliação dos efeitos dos diferentes sistemas de manejo na estrutura do solo e do crescimento radicular das culturas. Este trabalho teve como objetivo avaliar a variação dos valores de resistência do solo à penetração em resposta ao número de repetições (população amostral) a partir de diferentes formas de amostragem em campo, em um Latossolo Vermelho eutroférrico, sob três tipos de manejo: plantio direto (PD), cultura perene (CP) e preparo convencional (PC). O trabalho foi realizado em uma área situada na região norte do Estado do Paraná. Nessa área, foram feitas amostragens em três subáreas de 1 ha para determinação da resistência do solo à penetração por meio de um penetrômetro de Impacto modelo IAA/Planalsucar/Stolf, nas profundidades de 0-0,10; 0,10-0,20; 0,20-0,40; 0,40-0,60 m. Foram utilizados dois esquemas de amostragens na área: uma feita de forma sistemática (rede de pontos distantes de 25m entre si) e outra totalmente ao acaso com 1, 3, 5, 10, 15, 20, 30, 40 e 50 repetições. Para todos os pontos e profundidades, foram determinados o valor médio da resistência à penetração (MPa), o intervalo de confiança e a exatidão da estimativa (D) das médias de penetrometria por meio da teoria estatística clássica, levando em consideração o número de amostras (n) e o desvio-padrão da amostra (S). O nível de significância utilizado foi de 0,05. Nas condições em que foi realizado o trabalho, os resultados obtidos permitiram concluir que o número de amostras representativas para a determinação da resistência do solo à penetração não variou de forma significativa com o tipo de amostragem. Porém, os intervalos de confiança foram sempre menores na amostragem sistemática. O número de amostras representativas para a determinação da resistência do solo à penetração variou com o sistema de manejo e a profundidade de amostragem. A melhor representatividade da média dos resultados de resistência do solo à penetração ocorreu para n > 15 (PD e CP) ou n > 20 (0-0,10 m) e 15 (0,20-0,60 m) no caso do PC. A população amostral n > 10 na profundidade 0-0,60 m, nos dois tipos de amostragem e manejos de solo, permitiu alta exatidão dos dados, tornando os parâmetros estatísticos mais confiáveis, com homogeneidade nos resultados e linearidade apresentada nas curvas das populações amostrais a partir do erro amostral de 10 %